Десятки тысяч страниц выпали из индекса? Бывает...
По крайней мере, так считает представитель поисковой системы №1.
Недавно в Твиттере обеспокоенный сеошник обрисовал следующую ситуацию:
"С двадцатых чисел октября мы наблюдаем серьезные проблемы с индексацией. По той информации, которой я располагаю, с деиндексацией столкнулись крупные веб-порталы. Об этом активно пишут другие оптимизаторы. В моем случае почти 18 тыс. URL-адресов вылетело из Google SERP в течение нескольких дней. Может это связанос каким-то багом индексации на стороне поисковой системы?"
Комментируя кейс, Джон Мюллер (John Mueller) из Google удивил своей безмятежностью: "Во-первых, мы никогда не индексируем весь доступный в Сети контент. Во-вторых, положение дел с индексацией имеет свойство меняться со временем, а потому я не вижу ничего удивительного в том, что где-то 18 тыс. страниц выпали из индекса. Скажу больше, проблемы с индексацией часто никак не сказываются на трафике".
Вряд ли такой ответ Гуглмена успокоил сео-специалиста, если только сайт, о котором он упомянул, не располагает миллионами страниц. Конечно, в таком случае стремительное выпадение из индекса такого количества урлов может и не сказаться на его видимости в поиске. А если у сайта, скажем, 20 тыс. страниц всего?