нагрузку на MySQL ( Бот Гугла возможно)
Страницы: 1 2 След.
нагрузку на MySQL ( Бот Гугла возможно)
Наш сайт превышал допустимую нагрузку на MySQL в несколько раз и нас уже гонят со второго хоста. А вот вчера нагрузка пришла в норму.С чем это может быть связано, мы ведь причину не нашли ???посещаемость сайта не падала . У нас еще в сутки каждый день по 28 000 переходов делает бот гугла .Вычислили по логам,что этот бот делает переходы в одну маленькую онлайн игру,мы ее удалили,но этот бот долбит все равно по этой ссылке у же неделю,хоть и ссылка выдает ошибку.Нагрузка случайно не может быть связана с этим как то?
Изменено: Slalex77 - 5 Апреля 2011 16:38

Бесплатная контекстная реклама

Вот этот бот и ссылка по чем долбит

66.249.72.182 - - [24/Mar/2011:14:22:22 +0300] "GET /Fallout_Quest/game.php?mod=game/bos/2&img=/game/bos/maccinli.png&r=785& HTTP/1.0" 200 24750 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Да, странное дело. smile:confused: А если в robots.txt запретить Гуглу по этой ссылке проходить?
Цитата
Дектор Пали пишет:
Да, странное дело. А если в robots.txt запретить Гуглу по этой ссылке проходить?
Этой ссылки уже нет,но он все равно переходит по ней, хоть выдает ошибку что этой страницы не существует.
Поставьте перенаправление на главную страницу сайта, еще и с пользой все будет )
Переходы с этого бота на сайт идут примерно 1- 2 перехода секунду.
Цитата
Олег пишет:
Поставьте перенаправление на главную страницу сайта, еще и с пользой все будет )
Мне пользы не надо,мне бы от нагрузки избавится.
Может принудительно задать промежуток побольше между повторными запросами бота?
Цитата
Дектор Пали пишет:
Может принудительно задать промежуток побольше между повторными запросами бота?
а каким образом это можно сделать?
Как-то в robots.txt можно прописать. Направьте силу Гугла против него самого: погуглите и узнааете! smile:D
Вот, нашёл:

Crawl-delay: устанавливает время, которое робот должен выдерживать между загрузкой страниц. Если робот будет загружать страницы слишком часто, это может создать излишнюю нагрузку на сервер. Впрочем, современные поисковые машины по умолчанию задают достаточную задержку в 1-2 секунды.

User-agent: *
Crawl-delay: 10

Вместо * надо, наверное, указать "Google"
Что то не могу понять как перекрутить гугл чтоб не пострадали другие поисковики ,пример кто может показать???


вот мой - robots.txt

User-Agent: *
Disallow: /panel/
Disallow: /stats/
Disallow: /cgi-bin/
Disallow: /theme/
Disallow: /incfiles/
Disallow: /cache/
User-Agent: *
Disallow: /panel/
Disallow: /stats/
Disallow: /cgi-bin/
Disallow: /theme/
Disallow: /incfiles/
Disallow: /cache/

User-agent: Googlebot
Crawl-delay: 10
=====================================
Проблемы с Wordpress? Решение здесь.
Цитата
BugFix пишет:
User-Agent: *
Disallow: /panel/
Disallow: /stats/
Disallow: /cgi-bin/
Disallow: /theme/
Disallow: /incfiles/
Disallow: /cache/
User-agent: Googlebot
Crawl-delay: 10


А пробел перед User-agent: Googlebot
Crawl-delay: 10 что значит?
Цитата
Slalex77 пишет:
А пробелпередUser-agent: Googlebot
Crawl-delay: 10что значит?

Можно поставить пробел, потом удобнее читать самому будет.

10 - количество секунд (минимальное) между повторными запросами робота. Чем оно больше, тем по идее меньше нагрузка на сервер, но немножко дольше индексация smile:)
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
17:35 тИЦ 12.04.2017 / Яндекс тИЦ 12.04.2017 
16:55 Долго грузится админка Вордпресс 
16:40 Апдейт 24.04.2017 
16:39 Яндекс обнулил всем значение тИЦ? 
16:29 Google AdExchange 
16:24 Teasermedia.net 
16:01 Bodyclick.net - рекламная партнерская сеть. 
16:45 Ищу КМ 
16:34 Sbitcoin.ru – Ввод, Вывод, Обмен: Qiwi, YD, Btc, Btc-e, PM, Cash IN, PR24, MG, WU, Наличные(RU, UA) 
16:05 Глобальное обновление! Более 1000 площадок под размещение вечных статей + супер АКЦИЯ! 
15:37 Услуги по рассылки спама Вконтакте 
14:56 Профильный прогон 200 рублей, ТИЦ от 10, проверен Checktrust 
14:11 Прогон по профилям 300 рублей, 170 сайтов, ТИЦ от 10 
14:10 Размножение статей качественно 
17:16 Очень важно отследить все домены третьего уровня на козе и заблокировать их нафиг! 
17:10 Ищем не на чем сэкономить, а на чем заработать! 
16:39 Серч и другие популярные форумы среди вебмастеров и оптимизаторов 
16:37 Вопрос по созданию сайта 
16:37 Весёлые фотографии 
16:08 Чужое видео на свой сайт (про игры) 
15:15 Как продвинуть паблик вконтакте (игровой)