нагрузку на MySQL ( Бот Гугла возможно)
Страницы: 1 2 След.
нагрузку на MySQL ( Бот Гугла возможно)
Наш сайт превышал допустимую нагрузку на MySQL в несколько раз и нас уже гонят со второго хоста. А вот вчера нагрузка пришла в норму.С чем это может быть связано, мы ведь причину не нашли ???посещаемость сайта не падала . У нас еще в сутки каждый день по 28 000 переходов делает бот гугла .Вычислили по логам,что этот бот делает переходы в одну маленькую онлайн игру,мы ее удалили,но этот бот долбит все равно по этой ссылке у же неделю,хоть и ссылка выдает ошибку.Нагрузка случайно не может быть связана с этим как то?
Изменено: Slalex77 - 5 Апреля 2011 16:38

Бесплатная контекстная реклама

Вот этот бот и ссылка по чем долбит

66.249.72.182 - - [24/Mar/2011:14:22:22 +0300] "GET /Fallout_Quest/game.php?mod=game/bos/2&img=/game/bos/maccinli.png&r=785& HTTP/1.0" 200 24750 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Да, странное дело. smile:confused: А если в robots.txt запретить Гуглу по этой ссылке проходить?
Цитата
Дектор Пали пишет:
Да, странное дело. А если в robots.txt запретить Гуглу по этой ссылке проходить?
Этой ссылки уже нет,но он все равно переходит по ней, хоть выдает ошибку что этой страницы не существует.
Поставьте перенаправление на главную страницу сайта, еще и с пользой все будет )
Переходы с этого бота на сайт идут примерно 1- 2 перехода секунду.
Цитата
Олег пишет:
Поставьте перенаправление на главную страницу сайта, еще и с пользой все будет )
Мне пользы не надо,мне бы от нагрузки избавится.
Может принудительно задать промежуток побольше между повторными запросами бота?
Цитата
Дектор Пали пишет:
Может принудительно задать промежуток побольше между повторными запросами бота?
а каким образом это можно сделать?
Как-то в robots.txt можно прописать. Направьте силу Гугла против него самого: погуглите и узнааете! smile:D
Вот, нашёл:

Crawl-delay: устанавливает время, которое робот должен выдерживать между загрузкой страниц. Если робот будет загружать страницы слишком часто, это может создать излишнюю нагрузку на сервер. Впрочем, современные поисковые машины по умолчанию задают достаточную задержку в 1-2 секунды.

User-agent: *
Crawl-delay: 10

Вместо * надо, наверное, указать "Google"
Что то не могу понять как перекрутить гугл чтоб не пострадали другие поисковики ,пример кто может показать???


вот мой - robots.txt

User-Agent: *
Disallow: /panel/
Disallow: /stats/
Disallow: /cgi-bin/
Disallow: /theme/
Disallow: /incfiles/
Disallow: /cache/
User-Agent: *
Disallow: /panel/
Disallow: /stats/
Disallow: /cgi-bin/
Disallow: /theme/
Disallow: /incfiles/
Disallow: /cache/

User-agent: Googlebot
Crawl-delay: 10
=====================================
Проблемы с Wordpress? Решение здесь.
Цитата
BugFix пишет:
User-Agent: *
Disallow: /panel/
Disallow: /stats/
Disallow: /cgi-bin/
Disallow: /theme/
Disallow: /incfiles/
Disallow: /cache/
User-agent: Googlebot
Crawl-delay: 10


А пробел перед User-agent: Googlebot
Crawl-delay: 10 что значит?
Цитата
Slalex77 пишет:
А пробелпередUser-agent: Googlebot
Crawl-delay: 10что значит?

Можно поставить пробел, потом удобнее читать самому будет.

10 - количество секунд (минимальное) между повторными запросами робота. Чем оно больше, тем по идее меньше нагрузка на сервер, но немножко дольше индексация smile:)
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 2, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
22:22 Show\Hide влияние на сео 
22:16 Апдейт Яндекса 07.12.2016 
21:58 РСЯ: переезд в новый партнерский интерфейс 
21:28 Мобильная или адаптивная версия сайта 
20:29 Profitco - гемблинговая ПП! Проверенные бренды, парк-домены, выплаты каждую неделю, геолокация по ip 
20:26 Не могу попасть в РСЯ 
20:24 Неправильный Роботс.тхт 
22:31 Создание и доработка сайтов 
21:35 Продам свою личную лицензию на AllSubmitter. Срочно! 
20:13 200 открытых анкорных ссылок всего за 100 рублей 
18:47 База ключевых слов Up-base ru(3.25млрд) + eng(4.23млрд) 
17:55 Комплексная раскрутка сайтов. Качественные услуги, прогоны и прочее. (2000+ отзывов) 
17:48 Готовые СЯ. Только низкоконкурентные ключи 
17:40 Семантическое ядро (СЯ) на заказ. ТЗ для копирайтеров. Бесплатные услуги, низкие цены и скидки! 
22:30 Дом 2 закрывают! Отличная новость! 
22:04 Вопрос по Google Adsense 
21:24 Нужно ли закрывать рекламные блоки? 
19:27 Дети 
19:12 Навеянные форумом картинки 
18:42 Изменения барного тИЦ замечены 2016-12-08 00:38:03 
18:40 Новогодний стол в канун Новогодних праздников