С 31 декабря 2011 года являюсь клиентом хостинга IHC.ru
Получил сегодня письмо такого характера уже в четвертый раз:
Скрипты вашего заказа p***** (тариф Продвинутый) превышают разрешённый лимит потребления
ресурсов web-сервера http://www.ihc.ru/hosting.html#all
Нагрузка за прошедшие сутки составила 191cp при разрешённых 72cp.
При систематическом превышении нагрузки мы будем вынуждены отключить ваш заказ.
Если данное предупреждение пришло вам первый раз, возможно, вам не о чем беспокоиться. Если это уже
не первое подобное письмо, свяжитесь, пожалуйста, с техподдержкой, ответив на данное сообщение,
для выяснения подробностей о создаваемой нагрузке.
Цифры, за предыдущие дни такие: 94 165 221
На хостинге 5 свежих сайтов под сапу на Instant CMS (~по 1000 страниц каждый)... Залил их только на днях. Думаю сейчас идет индексация...
Вопрос: может ли индексация роботом давать такую нагрузку? Как понять в чем же дело? Техподдержка ответила: смотрите логи и обратитесь к программисту.
И что делать в таком случае? Если это все-таки индекс, то в последующем нагрузка должна резко упасть? Или как?
Вчера в robots.txt прописал:
User-agent: *
Crawl-delay: 10
Что можно еще предпринять?
P.S. Если что, перенесите тему в правильный раздел...
Получил сегодня письмо такого характера уже в четвертый раз:
Скрипты вашего заказа p***** (тариф Продвинутый) превышают разрешённый лимит потребления
ресурсов web-сервера http://www.ihc.ru/hosting.html#all
Нагрузка за прошедшие сутки составила 191cp при разрешённых 72cp.
При систематическом превышении нагрузки мы будем вынуждены отключить ваш заказ.
Если данное предупреждение пришло вам первый раз, возможно, вам не о чем беспокоиться. Если это уже
не первое подобное письмо, свяжитесь, пожалуйста, с техподдержкой, ответив на данное сообщение,
для выяснения подробностей о создаваемой нагрузке.
Цифры, за предыдущие дни такие: 94 165 221
На хостинге 5 свежих сайтов под сапу на Instant CMS (~по 1000 страниц каждый)... Залил их только на днях. Думаю сейчас идет индексация...
Вопрос: может ли индексация роботом давать такую нагрузку? Как понять в чем же дело? Техподдержка ответила: смотрите логи и обратитесь к программисту.
И что делать в таком случае? Если это все-таки индекс, то в последующем нагрузка должна резко упасть? Или как?
Вчера в robots.txt прописал:
User-agent: *
Crawl-delay: 10
Что можно еще предпринять?
P.S. Если что, перенесите тему в правильный раздел...
От этого хостинга я просто в восторге!