Почему гугл принял страницы page как дубль?
Страницы: 1
Почему гугл принял страницы page как дубль?
Почему гугл принял страницы page как дубли? (См. Скриншот) как от этого избавиться вообще?
Что за страницы? Каждая из них уникальная? Или это навигация по подстраницам категории?
Изменено: Ansy - 29 Ноября 2016 12:58
Цитата
Ansy пишет:
Что за страницы? Каждая из них уникальная? Или это навигация по подстраницам категории?
Это навигация по категоии, например в категории находится много новостей, на одну страницу все не помещается вот от сюда эти страницы и появляются page/2/ что означает вторая страница этой категории page/3/ page/4/ и тд
Цитата
Rich Dad пишет:
Это навигация по категоии, например в категории находится много новостей,


И почему вас удивляет, что такие страницы гугл посчитал дублем? Контент то на них частично копирует полные новости отсюда и дублирование. Такие страницы надо закрывать от индексации, либо в роботсе, что с гуглом не всегда помогает, либо с помощью мета-тега noindex. Либо как вариант, если не хотите запрещать индексацию, то писать уникальные анонсы к новостям.

Цитата
masterrabot пишет:
И почему вас удивляет, что такие страницы гугл посчитал дублем? Контент то на них частично копирует полные новости отсюда и дублирование. Такие страницы надо закрывать от индексации, либо в роботсе, что с гуглом не всегда помогает, либо с помощью мета-тега noindex. Либо как вариант, если не хотите запрещать индексацию, то писать уникальные анонсы к новостям.
Я вот так закрыл данную страницу, Disallow: /page/ Вроде правильно но они всё равно в поиске почему то
Цитата
Rich Dad пишет:
Disallow: /page/ Вроде правильно но они всё равно в поиске почему то


Закрыли правильно, но гуглу роботс часто не указ, он эту директиву просто игнорит. Поэтому надо из роботса этот запрет убрать вообще, а на проблемных страницах в хэдере прописать <meta name="robots" content="noindex">
Вот ссылка на гугловскую спраку вебмастерам: _https://support.google.com/webmasters/answer/93710?hl=ru
Цитата
masterrabot пишет:
Закрыли правильно, но гуглу роботс часто не указ, он эту директиву просто игнорит. Поэтому надо из роботса этот запрет убрать вообще, а на проблемных страницах в хэдере прописать <meta name="robots" content="noindex">
Вот ссылка на гугловскую спраку вебмастерам: _https://support.google.com/webmasters/answer/93710?hl=ru
Хорошо спасибо, только вот не много не понимаю как на навигационных страницах запрет прописать, попробую покапаться
Цитата
Rich Dad пишет:
как на навигационных страницах запрет прописать


Тут я вам не помогу, у вас же DLE, а я в нем не силен.
Цитата
masterrabot пишет:

Тут я вам не помогу, у вас же DLE, а я в нем не силен.
А как в  закрыть вот такую страницу http://сайт/news/page/4/ ? Что бы http://сайт/news индексировались а вот эти страницы нет http://сайт/news/page, знаете?
Цитата
Rich Dad пишет:
А как в
/robots.txt
Хотя всё, разобрался.

Disallow: */page/

Такой вариант решил проблему 
Цитата
Rich Dad пишет:
Хотя всё, разобрался.
А вообще есть плагин удаления дублей
Цитата
Вячеслав Шаров пишет:
А вообще есть плагин удаления дублей
Какой нафиг плагин? smile:D
Цитата
Rich Dad пишет:
Disallow: */page/
Всё верно
Мы не можем похвастаться мудростью глаз
И умелыми жестами рук,
Нам не нужно все это, чтобы друг друга понять.
Сигареты в руках, чай на столе - так замыкается круг,
И вдруг нам становится страшно что-то менять.
Цитата
Вячеслав Шаров пишет:
Цитата
Rich Dad пишет:
Хотя всё, разобрался.
А вообще есть плагин удаления дублей
первый раз слышу smile:)
В принципе ничего страшного в этом нет, если есть параметр канонических страниц. Но многие еще делают допись стр.1 стр.2 и тд в тайтл, и дескрипшн, именно оттуда ведь гугл дает дубли
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
18:42 Стоит ли добавлять сайт в Rambler топ 100? 
17:59 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
16:49 С наступающим Новым годом! АП Яндекс ИКС 23.12.2025 
16:27 Как вывести сайт в ТОП Google в конкурентной тематике? Рецепт: ссылки плюс низкочастотные длинные ключи 
10:21 AntiBot Cloud - бесплатный скрипт и сервис защиты сайтов 
09:29 Продвижение по ключам 
09:23 Что такое Яндекс Икс / Как накрутить Яндекс ИКС 
18:04 A-Parser 1.1 - продвинутый парсер поисковых систем, Suggest, PR, DMOZ, Whois, etc 
15:59 Запустите свой обменник за 1 день без программиста и серверов — облачная платформа EX365 
15:33 SellBuycoin.io - надежный проводник в мир обмена криптовалют на фиат и наличные по РФ! 
12:47 Belurk — высокоскоростные анонимные прокси от 0,24 рублей 
12:27 Bankomat001 - Сервис обмена электронных валют 
10:16 HH.ru Работадателя вериф 
10:14 AllCharge.online. Современный, быстрый и надёжный обменник 
13:34 Компьютерная мышь 
13:13 Куплю проигрышные букмекерские аккаунты 
21:22 С юмором по жизни! 
22:59 Про мясо 
15:07 Добро пожаловать в цифровой мир... 
22:12 BYTIK.shop – сервис по продвижению в популярных социальных сетях​ 
10:10 накрутка трафика в SimilarWeb