Закрываем индексацию неуникальных Картинок и Гугл сопли 👇
Вдруг у тебя сейчас отсутствует возможность «прикупить картинки» на фото-стоках или сообразить где-то их «нарыть» так, чтобы они были уникальны. Все понимают у каждой картинки есть автор и используя без разрешения мы нарушаем авторские права.
При написании статей каждый из нас серфит в Google картинках, находит что подходит по тематике. Нужно понимать копируя к себе картинку мы «засоряем поисковую систему» таким дублирующим контентом. Это похоже на копи-паст текста. Скрывая / закрывая картинку от поисковиков, то % вероятности ее поиска на вашем сайте через поиск равняется нулю.
Потому предлагаю к любой «неуникальной картинке» дописывать слово noindex. В файле robots.txt с помощью любого редактора (мой любимый саблайм текст) прописывать вот такую строчку / директиву для запрета индексации картинок:
Disallow: /*noindex*
На выходе будет /wp-content/uploads/2009/12/noindex_finstrip.gif
/wp-content/uploads/2009/12/noindex_lol.jpg
Но «большинство картинок» у вас неуникально, проще будет прописать тем картинкам, уникальным-оригинальным index_* и разрешить индексировать только их. Остальные закрыть, закрыть тьму неуникальных картинок.
Disallow: /папка_с_картинками/
Allow: /папка_с_картинками/index_*
Так банально и может показаться тупым, но по сути продуманный до мелочей каждый момент может в итоге дать большие бонусы.
У меня на блоге, есть очень много скриншотов всякого рода «кода», но я так подумал и ваще не могу понять зачем такое индексировать. Не помню, ни разу, чтобы я искал какие-то скриншоты в Гугл картинках, хотя было к одной из ПП партнерок искал таблицы выплат =) А вы?
Вот к примеру такую фотку https://wlad2.ru/wp-content/uploads/2010/11/zarisovka.jpg я бы оставил на индексацию, а скриншот какого УГ сайта нет https://wlad2.ru/wp-content/uploads/2012/04/ScreenShot-10.04.12-16-46-08.jpg
Тем более, хорошая идея оптимизации, снизить трафик / нагрузку на сайт от поисковых роботов на ваш сайт, закрыв для индекса маленькие версии фотографий и превьюшек на страницах категорий.
Гугл Сопли и муторная работа по их удалению.
И так не секрет, даже идеальный файл robots.txt то каким-то странным образом Гугл может проиндексировать «директории и страницы» которые были напрочь запрещены, почему? Файл robots.txt не запрещает индексацию, он просто не пускает туда робота. Но как я заметил, бывает такое, на сайте ведутся какие-то работы или происходит обновление движка или еще чего и в этот момент на сайте шерстит «бот Гугла» и тут он начинает кушать все подряд и конечно индексирует то, что закрыто в robots.txt и потом выплевывать не хочет. Как его заставить слушаться, долгое время попросту не знал. Но, случайно встретил блог в «который вообще не по теме» но упоминалось вручную в Гугл вебмастере делается. Я не особо любитель этих панелей поисковиков, но быстро разобрался и почистил ненужные страницы.
Грех будет не сказать, идеальным способом закрывать страницы является «мета тег noindex», но к сожалению не все движки имеют такую возможность или дополнения. Но при возможности пользуюсь часто.
Какие страницы считаются Соплями приведу пример в скринах:
К примеру возьмем такой сайт diettu.ru в Гугле через оператор site:diettu.ru получаем результат 9 790 страниц, на самом деле на нем не боль 1к страниц ну пусть там категорий 20 навскидку, меток пару сотен... Остальное это СОПЛИ!
В настройках Гугла выберите выводить по 100 страниц и смотрим на 4 страницу выдачи:
В общем кликаем на линк "повторить поиск, включив опущенные результаты" и там видим вот такие ссылки:

К сожалению многие сопли так сложно насерфить, вам потребуется вебмастер Гугла / Яндекса + парсить сам проект и задавать различные параметры отыскивая их. Далее такие URL удаляем через панель вебмастера Гугла. Зачем? Если у вас всякие ГС, то конечно пост не для вас, но когда ваши ресурсы это уже бизнес, то каждая мелочь влияет на весь механизм.
Все статьи и новости → Подписаться на Telegram