Про сопли и трафик с Гугла

7 августа 2010

Закономерность такова, при нормальном количестве нормальных ссылок (лучше трастовых) страницы сайта попадают в основной индекс. В итоге куча трафика на страницах с такими ссылками.

А как-же быть, пишешь посты или делаешь нормальный сайт с копирайтом или рерайтом, а результата ждать пока хто-то поставит ссылку на ваш пост и причем с нормального сайта (прямую ссылку), процент страниц влазит в основной индекс сам по себе, но этот процент очень малый.

На моих сайтах без внешних ссылок, влазит 1-2% всех страниц сайтов, на сайтах с покупкой внешних ссылок, обменом, 45% влазит.

Что такое основной индекс — это те страницы сайта, которые получают трафик и ранжируются в google
определить можно так:

site:domen.com/* или так site:domen.com/&

И где справедливость? Какими факторами заставить google хавать страницы именно в основной индекс?

Побывал внутреннюю перелинковку с страниц в основном индексе на страницы в дополнительном из 100 страниц влезло ~5 страниц, мои старания не оправдались ведь на работу ушло уйма времени.

дополнительный индекс, основной индекс, трафик

11 комментариев на «“Про сопли и трафик с Гугла”»

  1. Внутренную перелинковку надо делать тогда, когда есть хотя бы немного внешних ссылок, тогда толк от этого точно обеспечен.

    • да ну не смеши, перелинковку на нулячих сайтах делал и не рас результат есть, заметный результат как в позициях так и трафике, без всяких внешних ссылок

  2. А перелинковку делал руками для поднятия позиций? или рандомом выводил в конце статьи?

  3. для поднятия позиция нужно прочекать слабых конкурентов и именно туда и давить.. соревноваться с крутыми парнями можно оставить на потом =)

  4. да типа технари мутят по тихому и ищут свободные точки, про которые никто не знает)

    ну а вообще после прочекивания, ручками эффективней же... Хотя щас всякие HTracer-ы есть

  5. ну глазами в выдачу глянул.. что видно? видно морды в выдче есть или нет.. если есть то борода с этим запросом..

    видно ЧПУ урлы.. так почемубы их не заюзать.. можно пройтись по топ 3 сайтам и оценить насколько они оптимизированы.. конечно по началу все делаеться ручками.. сейчас уже кое что под себя написал помогает, на всеравно 50% всеравно остаються ручки..

    иногда даже знаю хорошо свою нишу, видно есть ли смысл вигать тот или иной запрос..

    скажу тебе что намного лучше точить НЧ запросы статьями. под каждый запрос оптимизированная статья перелинкована на своем сайте.. намного дешевле чем двигать сч или вч.. да и бессмыслено двигать там мало трафика..

  6. ну а если к примеру, не морды, но сайты с пузом типа PR, Alexa, страниц много в поиске итп — тогда не борода? Или тут уже неважно, главное чтобы не морда и главное как статья заточена под запрос?

  7. даже если топ-10 все с PR .. но при этом точные вхождения не у кого нет, то такой топ легко забить.. а вообще нужно для себя потратить много времени на эксперименты.. кто и почему сидит в топе..

    чем больше плюшек у нужного к продвижению урла тем проще он сам продвинется..

  8. ну к примеру прикупи программу PageWeight и посмотри сколько внутренних ссылок на продвигаемую у конкурента.. сделай выводы..

  9. Спасибо, твои советы мне пригодятся, а с экспериментами ты точно подметил — это бесценный опыт! Точные вхождения это всмысле и в тайтле, и в сниппете?

    У меня обычно НЧ всякие в ТОП 50 слету попадают, но застревают на 2-3 страницах в Гугле и все... стоим..., хотя для этого ТОП 50 я тупо писал статью под НЧ и не ставил ссылок ни внешних, ни внутряков, наверное так и должно быть с НЧ. Ладно, теперь уже буду адекватней подходит к теме с НЧ и с мазгами :).

    Кстати, можно ли скармливать xml карту Гуглам чтобы быстрей проиндексировалась какая то новая страница на сайте? Точнее, эффект будет?

  10. >Точные вхождения это всмысле

    ну да в тайтле

    >можно ли скармливать xml

    если сайт маленький то гуглу пох на xml, хотя читал гдето что на сайты с xml картой роботы чаще пасутся.. но я лично не проверял..

    хотя на моих сайтах везде стоит xml — этот как-бы один из маленьких плюсов..