Google о правильной деиндексации контента
Исключать страницы из выдачи лучше при помощи noindex, а не Robots.txt.
Об этом узнаем из недавнего диалога в Твиттере. Сеошник поинтересовался у Джона Мюллера (John Mueller):
"Какой способ можете посоветовать для деиндексации 10к+ страниц входа на сайт, с которых происходит редирект после успешной процедуры аутентификации?"
Ответ Гуглмена несколько вышел за рамки вопроса:
"Во-первых, а зачем вам в принципе исключать из индекса Google эти страницы? Если они случайно ранжируются по нужным для вас запросам, тогда лучше направить усилия на оптимизацию других более важных для вас страниц. Однако если они не ранжируются по таким ключевым запросам, тогда просто не обращайте на них внимания. Во-вторых, если же вы все-таки решительно настроены деиндексировать их, в таком случае не нужно для блокировки использовать файл Robots.txt. Вместо этого воспользуйтесь тегом noindex".
А как вы исключаете из индекса поисковых систем большие объемы веб-страниц?
9 Марта 2021
Возврат к списку