Не могу справится с ошибкой в Яндекс.Вебмастер
Страницы: 1
Не могу справится с ошибкой в Яндекс.Вебмастер, HTTP-статус: Служба не доступна (503)
Здравствуйте уважаемые, у меня такая проблема: не стого и не с сего, примерно месяц назад в Яндекс.Вебмастер, для одного из моих сайтов на вкладке "Общая информация" появилось такое сообщение: "14.10.2015 не удалось проиндексировать главную страницу сайта с такой причини: HTTP-статус: Служба не доступна (503). Если причина устранена, сообщение обновиться на протяжении 2-3 дней." Дата - 14.10.2015 постоянно меняется, то есть 14.10.2015 писало что 13.10.2015 не удалось проиндексировать..... и т.д. Вот сам сайт [FONT=Arial, Helvetica, sans-serif]http://allbanki.com/ , он доступен, проверяю разными сервисами, все отдают код 200, да и сам инструмент Яндекса "Проверить URL" тоже отдает 200. Вчера написал платонам, вот что ответили:[/FONT]
Цитата
Здравствуйте!

В настоящий момент главная страница Вашего сайта недоступна для робота, при обращении к ней робот получает HTTP-код ответа 503:
HTTP/1.1 503 Service Unavailable
Date: Fri, 16 Oct 2015 06:54:37 GMT
Server: Apache
X-Powered-By: PHP/5.3.29
Expires: Thu, 19 Nov 1981 08:52:00 GMT
Cache-Control: no-store, no-cache, must-revalidate, post-check=0, pre-check=0
Pragma: no-cache
Content-Encoding: gzip
Vary: Accept-Encoding
Set-Cookie: PHPSESSID=216236c74675c536aa69a00b43078038; path=/
Content-Length: 26
Connection: close
Content-Type: text/html


Для решения данной проблемы, пожалуйста, обратитесь к администратору Вашего сайта или сервера, на котором расположен сайт.
Если ошибка при запросе страниц больше возникать не будет, то они по мере обхода сайта роботом будут повторно проиндексированы. Увы, если страницы останутся недоступны для робота, они могут пропасть из результатов поиска.

Инструмент "Проверка ответа сервера" в сервисе Яндекс.Вебмастер может не выявить проблему, так как лишь имитирует работу индексирующего робота и имеет IP-адрес, отличающийся от IP-адреса робота.



Пожалуйста, помогите решить проблему, может кто-то уже сталкивался с похожим. Спасибо
Изменено: Chmil - 16 Октября 2015 12:55
Могу предположить что когда робот заходит на ваш сайт то он создаёт определённую нагрузку на ваш сервер и он в ответ получает 503 ошибку.Попробуйте увеличить ресурсы вашего сайта и обратитесь к вашему хостинг провайдеру.
В Яндекс вебмастете бывают глюки, замечал не один раз можете у них спросит может с их стороны проблема.
Рекомендую хостинг и VPN в Европе от 56р.
Рекомендую хостинг в России от 220р.
Мой Сайт-Блог Климов Дмитрий .
Diman_TS, писал платонам, ответ в первом посте. На счет хостинга, то тут сомневаюсь, но напишу провайдеру для проверки. На етом хостинге и на одном аккаунте у меня несколько сайтов, причем на других сайтах на много больше трафика, проблема только тут
смотрите логи сервера если есть доступ, или обращайтесь к хостеру, тут как выше написали, скорее всего робот создает нагрузку и какой-то скрипт не успевает отработать, что и выкидывает 503
Diman_TS,  Frank Sinatra, спасибо Вам за ответы, сейчас сделаю бекап (сайта целиком и отдельно постов), все перезалью с нуля, посмотрим что получится. Ну и конечно пишу хостеру:)
Цитата
Chmil пишет:
Diman_TS, Frank Sinatra, спасибо Вам за ответы, сейчас сделаю бекап (сайта целиком и отдельно постов), все перезалью с нуля, посмотрим что получится. Ну и конечно пишу хостеру:)
Попробуйте в файле robots.txt прописать правило для поисковых роботов .Вот цитата из яндекса 
Цитата

Директива Crawl-delay
Если сервер сильно нагружен и не успевает отрабатывать запросы на загрузку, воспользуйтесь директивой Crawl-delay. Она позволяет задать поисковому роботу минимальный период времени (в секундах) между окончанием загрузки одной страницы и началом загрузки следующей.
В целях совместимости с роботами, которые не полностью следуют стандарту при обработкеrobots.txt, директиву Crawl-delay необходимо добавить в группу, которая начинается с записи User-Agent, непосредственно после директив Disallow и Allow).
Поисковый робот Яндекса поддерживает дробные значения Crawl-Delay, например, 0.5. Это не гарантирует, что поисковый робот будет заходить на ваш сайт каждые полсекунды, но позволяет ускорить обход сайта.
Примеры:

User-agent: Yandex Crawl-delay: 2 # задает таймаут в 2 секунды User-agent: * Disallow: /search Crawl-delay: 4.5 # задает таймаут в 4.5 секунды

Если не поймёте напишите в личку.
Diman_TS, спасибо за совет, о такой директиве не знал, сейчас погуглю, думаю разберусь. Сайт полностью перезалил, посмотрю завтра-послезавтра пропадет ли сообщение в Я.Вм , ету директиву добавлю, думаю не помешает
Chmil !
Первое что нужно сделать: 1. Как писали выше, нужно узнать кто создает нагрузку на сай.
2. в robots.txt добавить => Crawl-delay: 60 (это поможет если нагрузку на сайт дают роботы)
3. Вы не пользуетесь фрагментами чужих сайтов? например картинки в ссылках
4. Большое количества запросов к базе данных

Проблем 503 ошибки много, нужно знать CMS иметь URL чтоб понять что происходит с Вашим сайтом.
То что у вас много трафика на сайт из за этого? Как писали выше здесь нужно смотреть какой именно сайт.
трафика там почти нет, сайт указал в первом посте, вот дублирую _allbanki.com, сегодня сообщение в Я.Вм исчезло smile:), вчера как и писал - перезалил весь сайт, директиву добавил. На етот момент проблема решена, можно закрывать тему, всем спасибо за ответы
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
14:18 XRumer 23 StrongAI 
09:59 Ошибка после размещения кода HTML! 
21:44 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
15:34 Adtrafico - Правильная партнёрская сеть под бурж трафик 
14:43 Партнерская программа OWNR WALLET 
13:47 DreamCash.tl - заработок на онлайн-видео. До 95% отчислений, отличный конверт! 
21:08 Влияет ли кодировка на индексацию позиции в поиске? 
13:14 A-Parser 1.1 - продвинутый парсер поисковых систем, Suggest, PR, DMOZ, Whois, etc 
11:51 Европейский эквайринг 
11:19 BestChange – обменивать электронную валюту можно быстро и выгодно 
06:19 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
14:29 Мобильные и Резидентные Прокси Для Соц Сетей | 3 Гб Бесплатно 
12:05 Belurk — высокоскоростные анонимные прокси от 0,24 рублей 
20:08 Coin Click.cc - Быстрый и надежный обмен электронных валют в два клика 
11:15 Каспкрски ОС 
04:10 Точные прогнозы на футбол 
15:24 Добро пожаловать в цифровой мир... 
22:58 У меня дикая просадка по РСЯ за последние 3 суток 
21:51 Linux - это максимальная свобода 
21:33 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди 
14:38 Продажи российских компьютеров в РФ выросли вдвое