Снижаем нагрузку на Хостинг под сателлиты и ГС

Начал сталкиватся с некими нюансами, когда занялся плотной работой с сателитами, давайте с вами прикинем, допустим вы сделали 100 сателитов или сапоговносайтов... для продажи ссылок вам достаточно чтоб они были в индексе двух поисковх систем. это в первую очередь яндекс ну и гугл...

Теперь можно прикинуть, что еще есть разные поисковики, типа yahoo bing(msn), которые хавают эти сателиты, а толку от них никакого... а таких поисковиков еще с десяток в сумме банда поисковиков хавая наши с вами сапоговносателиты нагружают нам хостера, который не у всех идеальный и можит не выдержать нагрузки, а особенно если вы использываете cms типа wordpress, на самом деле я планирую поднять около 300ста ГС на своем хостере, доменых имен безгранично так-же как и mysql баз, но вот за нагрузку побеспокоится стоит раньше...

Давайте мы с вами просто забаним ненужных нам поисковиков .htaccess файлом

RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} liveinternet [OR]
RewriteCond %{HTTP_USER_AGENT} StackRambler [OR]
RewriteCond %{HTTP_USER_AGENT} WebAlta [OR]
RewriteCond %{HTTP_USER_AGENT} Yanga [OR]
RewriteCond %{HTTP_USER_AGENT} Twiceler [OR]
RewriteCond %{HTTP_USER_AGENT} Flexum [OR]
RewriteCond %{HTTP_USER_AGENT} Aport [OR]
RewriteCond %{HTTP_USER_AGENT} Slurp [OR]
RewriteCond %{HTTP_USER_AGENT} msnbot [OR]
RewriteCond %{HTTP_USER_AGENT} ia_archiver [OR]
RewriteCond %{HTTP_USER_AGENT} libwww-perl
RewriteRule ^(.*)$ — [F,L]

Впринципе желающие могут воспользоватся robots.txt но не все поисковики его слушаются...

__

И? юзаешь хостинг для sape?

.htaccess, rambler, sape, гс, хостинг