Снижаем нагрузку на Хостинг под сателлиты и ГС 💎
Начал сталкиватся с некими нюансами, когда занялся плотной работой с сателитами, давайте с вами прикинем, допустим вы сделали 100 сателитов или сапоговносайтов.. для продажи ссылок вам достаточно чтоб они были в индексе двух поисковх систем. это в первую очередь яндекс ну и Гугл…
Теперь можно прикинуть, что еще есть разные поисковики, типа yahoo bing(msn), которые хавают эти сателлиты, а толку от них никакого.. а таких поисковиков еще с десяток в сумме банда поисковиков хавая наши с вами сапоговносателиты нагружают нам хостера, который не у всех идеальный и можит не выдержать нагрузки, а особенно если вы использываете cms типа wordpress, на самом деле я планирую поднять около 300ста ГС на своем хостере тут, доменных имен безгранично так-же, как и mysql баз, но вот за нагрузку побеспокоится стоит раньше…
Давайте мы с вами просто блокируем ненужных нам поисковиков .htaccess файлом
RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} liveinternet [OR]
RewriteCond %{HTTP_USER_AGENT} StackRambler [OR]
RewriteCond %{HTTP_USER_AGENT} WebAlta [OR]
RewriteCond %{HTTP_USER_AGENT} Yanga [OR]
RewriteCond %{HTTP_USER_AGENT} Twiceler [OR]
RewriteCond %{HTTP_USER_AGENT} Flexum [OR]
RewriteCond %{HTTP_USER_AGENT} Aport [OR]
RewriteCond %{HTTP_USER_AGENT} Slurp [OR]
RewriteCond %{HTTP_USER_AGENT} msnbot [OR]
RewriteCond %{HTTP_USER_AGENT} ia_archiver [OR]
RewriteCond %{HTTP_USER_AGENT} libwww-perl
RewriteRule ^(.*)$ — [F,L]
В принципе желающие могут воспользоваться robots.txt, но не все поисковики его слушаются..
__
И? юзаешь хостинг для sape этот?
Подписаться на Telegram