нагрузку на MySQL ( Бот Гугла возможно)
Страницы: 1 2 След.
нагрузку на MySQL ( Бот Гугла возможно)
Наш сайт превышал допустимую нагрузку на MySQL в несколько раз и нас уже гонят со второго хоста. А вот вчера нагрузка пришла в норму.С чем это может быть связано, мы ведь причину не нашли ???посещаемость сайта не падала . У нас еще в сутки каждый день по 28 000 переходов делает бот гугла .Вычислили по логам,что этот бот делает переходы в одну маленькую онлайн игру,мы ее удалили,но этот бот долбит все равно по этой ссылке у же неделю,хоть и ссылка выдает ошибку.Нагрузка случайно не может быть связана с этим как то?
Изменено: Slalex77 - 5 Апреля 2011 16:38

Бесплатная контекстная реклама

Вот этот бот и ссылка по чем долбит

66.249.72.182 - - [24/Mar/2011:14:22:22 +0300] "GET /Fallout_Quest/game.php?mod=game/bos/2&img=/game/bos/maccinli.png&r=785& HTTP/1.0" 200 24750 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Да, странное дело. smile:confused: А если в robots.txt запретить Гуглу по этой ссылке проходить?
Цитата
Дектор Пали пишет:
Да, странное дело. А если в robots.txt запретить Гуглу по этой ссылке проходить?
Этой ссылки уже нет,но он все равно переходит по ней, хоть выдает ошибку что этой страницы не существует.
Поставьте перенаправление на главную страницу сайта, еще и с пользой все будет )
Переходы с этого бота на сайт идут примерно 1- 2 перехода секунду.
Цитата
Олег пишет:
Поставьте перенаправление на главную страницу сайта, еще и с пользой все будет )
Мне пользы не надо,мне бы от нагрузки избавится.
Может принудительно задать промежуток побольше между повторными запросами бота?
Цитата
Дектор Пали пишет:
Может принудительно задать промежуток побольше между повторными запросами бота?
а каким образом это можно сделать?
Как-то в robots.txt можно прописать. Направьте силу Гугла против него самого: погуглите и узнааете! smile:D
Вот, нашёл:

Crawl-delay: устанавливает время, которое робот должен выдерживать между загрузкой страниц. Если робот будет загружать страницы слишком часто, это может создать излишнюю нагрузку на сервер. Впрочем, современные поисковые машины по умолчанию задают достаточную задержку в 1-2 секунды.

User-agent: *
Crawl-delay: 10

Вместо * надо, наверное, указать "Google"
Что то не могу понять как перекрутить гугл чтоб не пострадали другие поисковики ,пример кто может показать???


вот мой - robots.txt

User-Agent: *
Disallow: /panel/
Disallow: /stats/
Disallow: /cgi-bin/
Disallow: /theme/
Disallow: /incfiles/
Disallow: /cache/
User-Agent: *
Disallow: /panel/
Disallow: /stats/
Disallow: /cgi-bin/
Disallow: /theme/
Disallow: /incfiles/
Disallow: /cache/

User-agent: Googlebot
Crawl-delay: 10
=====================================
Проблемы с Wordpress? Решение здесь.
Цитата
BugFix пишет:
User-Agent: *
Disallow: /panel/
Disallow: /stats/
Disallow: /cgi-bin/
Disallow: /theme/
Disallow: /incfiles/
Disallow: /cache/
User-agent: Googlebot
Crawl-delay: 10


А пробел перед User-agent: Googlebot
Crawl-delay: 10 что значит?
Цитата
Slalex77 пишет:
А пробелпередUser-agent: Googlebot
Crawl-delay: 10что значит?

Можно поставить пробел, потом удобнее читать самому будет.

10 - количество секунд (минимальное) между повторными запросами робота. Чем оно больше, тем по идее меньше нагрузка на сервер, но немножко дольше индексация smile:)
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
10:35 21 сентября 2017 
10:25 Рекламная сеть яндекса личный опыт 
10:23 Защита WP от взлома? 
09:33 Выбор CMS 
09:27 Апдейт ТИЦ 15 августа 2017 
09:18 Bodyclick.net - рекламная партнерская сеть. 
09:07 Как раскрутить паблик за 2 месяца вконтакте до 100.000 с вложениями 4000 рублей 
10:31 Качественный прогон по трастовым сайтам и форумам. Рост ТИЦ, посещаемости и позиций. Множество отзывов, недорого + скидки 
10:22 [Продам] Крупные сообщества Вконтакте,Facebook,instagram 
10:20 Надежный и мотивированный дизайнер, который точно не сорвет сроки и сделает круто 
09:55 Прогон по твиттеру, постинг в 1500 аккунтов, ускорение индексации и переиндексация сайтов, сателлитов, дорвеев и ссылок с прогонов 
04:22 Жду конструктивной оценки! 
01:08 RIP/Создание сайтов - минимальные цены 
21:34 PAYGET.PRO - быстрый ,честный , удобный обменный сервис. 
09:40 Подскажите где можно скачать программу 
09:27 Провайдер который вышибает слезу 
08:34 Ищем вебмастеров с высоким тИЦ 
08:26 Активация windows 7 
04:20 Зелёный замочек в SSL 
01:51 поднятие опыта в СЕО 
20:47 Нет попадают статьи в индекс, адрес стал .ru/__trashed.html