нагрузку на MySQL ( Бот Гугла возможно)
Страницы: 1 2 След.
нагрузку на MySQL ( Бот Гугла возможно)
Наш сайт превышал допустимую нагрузку на MySQL в несколько раз и нас уже гонят со второго хоста. А вот вчера нагрузка пришла в норму.С чем это может быть связано, мы ведь причину не нашли ???посещаемость сайта не падала . У нас еще в сутки каждый день по 28 000 переходов делает бот гугла .Вычислили по логам,что этот бот делает переходы в одну маленькую онлайн игру,мы ее удалили,но этот бот долбит все равно по этой ссылке у же неделю,хоть и ссылка выдает ошибку.Нагрузка случайно не может быть связана с этим как то?
Изменено: Slalex77 - 5 Апреля 2011 16:38

Бесплатная контекстная реклама

Вот этот бот и ссылка по чем долбит

66.249.72.182 - - [24/Mar/2011:14:22:22 +0300] "GET /Fallout_Quest/game.php?mod=game/bos/2&img=/game/bos/maccinli.png&r=785& HTTP/1.0" 200 24750 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Да, странное дело. smile:confused: А если в robots.txt запретить Гуглу по этой ссылке проходить?
Цитата
Дектор Пали пишет:
Да, странное дело. А если в robots.txt запретить Гуглу по этой ссылке проходить?
Этой ссылки уже нет,но он все равно переходит по ней, хоть выдает ошибку что этой страницы не существует.
Поставьте перенаправление на главную страницу сайта, еще и с пользой все будет )
Переходы с этого бота на сайт идут примерно 1- 2 перехода секунду.
Цитата
Олег пишет:
Поставьте перенаправление на главную страницу сайта, еще и с пользой все будет )
Мне пользы не надо,мне бы от нагрузки избавится.
Может принудительно задать промежуток побольше между повторными запросами бота?
Цитата
Дектор Пали пишет:
Может принудительно задать промежуток побольше между повторными запросами бота?
а каким образом это можно сделать?
Как-то в robots.txt можно прописать. Направьте силу Гугла против него самого: погуглите и узнааете! smile:D
Вот, нашёл:

Crawl-delay: устанавливает время, которое робот должен выдерживать между загрузкой страниц. Если робот будет загружать страницы слишком часто, это может создать излишнюю нагрузку на сервер. Впрочем, современные поисковые машины по умолчанию задают достаточную задержку в 1-2 секунды.

User-agent: *
Crawl-delay: 10

Вместо * надо, наверное, указать "Google"
Что то не могу понять как перекрутить гугл чтоб не пострадали другие поисковики ,пример кто может показать???


вот мой - robots.txt

User-Agent: *
Disallow: /panel/
Disallow: /stats/
Disallow: /cgi-bin/
Disallow: /theme/
Disallow: /incfiles/
Disallow: /cache/
User-Agent: *
Disallow: /panel/
Disallow: /stats/
Disallow: /cgi-bin/
Disallow: /theme/
Disallow: /incfiles/
Disallow: /cache/

User-agent: Googlebot
Crawl-delay: 10
=====================================
Проблемы с Wordpress? Решение здесь.
Цитата
BugFix пишет:
User-Agent: *
Disallow: /panel/
Disallow: /stats/
Disallow: /cgi-bin/
Disallow: /theme/
Disallow: /incfiles/
Disallow: /cache/
User-agent: Googlebot
Crawl-delay: 10


А пробел перед User-agent: Googlebot
Crawl-delay: 10 что значит?
Цитата
Slalex77 пишет:
А пробелпередUser-agent: Googlebot
Crawl-delay: 10что значит?

Можно поставить пробел, потом удобнее читать самому будет.

10 - количество секунд (минимальное) между повторными запросами робота. Чем оно больше, тем по идее меньше нагрузка на сервер, но немножко дольше индексация smile:)
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
18:25 Регистрация на новом сайте 
18:09 Яндекс тИЦ 03.12.2016 
17:01 Adsense личный опыт 
17:01 Ошибка в пагинации 
16:37 Вынужденные дубли страниц 
15:38 Апдейт Яндекса 03.12.2016 
14:53 Создание регионально сайта 
18:24 Нужен скрипт по проверке изменений на странице 
17:55 Крупные новостные (СМИ) площадки, Яндекс Новости, Google News, анонсы, хорошая посещаемость. 
16:40 Создание модулей, хаков для DLE (Data Life Engine), веб разработка. 
16:36 Web-мастер (wordpress, joomla, dle, ucoz, modx, соц сети и прочие) 
15:47 Изготовление Логотипов,Баннеров,Интро видео и многое другое 
15:45 Вакансии: Операторы и редакторы по обработке статей из вебархива 
15:33 Комплексный прогон по трастовым сайтам, статейное размещение. Рост НЧ-СЧ, Тиц-пр. 
17:47 Непонятки с адсенс 
17:26 Книга "Просветление за полчаса" 
16:10 Сколько стоит домен? 
09:57 Живые участники в группу 
00:41 Гугл не хочет индексировать 
23:34 «Угадай дату апдейта тИЦ» — получи Xneolinks + 500 рублей! 
20:02 Продам торрент трекер