Google: на качество сайта влияют только индексируемые страницы
Американский поисковик устами Джона Мюллера (John Mueller) рассказал о том, как именно он оценивает качество веб-ресурсов. Только контент, который может просканировать Гуглбот, годится для определения качества сайта.
На такое признание Джона вынудило обращение к нему в Твиттере:
"Используя noindex nofollow, мы закрываем от индексации где-то 15% от общего количества страниц нашего веб-ресурса. Делаем мы это для того, чтобы скрыть от Google дублируемый контент или контент не самого высокого качества. Скажите, может ли это каким-то негативным образом сказаться на позициях нашего сайта в SERP или же качество ресурса ваш поисковик оценивает, принимая во внимание исключительно страницы, открытые для индексации?"
Ответ представителя поисковой машины был вполне ожидаем:
"Для определения качества сайта мы используем информацию, полученную сугубо с индексируемых страниц".
При этом Джон добавил, что лучшим способом борьбы с дублированным контентом является тег rel=canonical. Его использование не закрывает от поисковых роботов контент, а просто сообщает им, что у такого контента имеется аналог.
Напомним, ранее мы писали, что Google будет наказывать за недействительные вакансии на сайте.
22 Апреля 2018
Комментарии:
2
Возврат к списку
Комментарии пользователей:
|
У меня иногда выскакивают страницы со статусом "Проиндексировано, несмотря на блокировку в файле robots.txt" (по данным новой версии Google Search Console). Интересно, как они попадают в индекс и как эти страницы на качество сайта?
Судя из статьи, они негативно влияют на сайт, но при этом Google знает о том, что я не хочу, что бы они индексировались.
|
|
|
Захожу сюда только для того, чтобы получить сообщение от Джона Мюллера (John Mueller). Спасибо.
|
|