Почему гугл принял страницы page как дубль?
Страницы: 1
Почему гугл принял страницы page как дубль?
Почему гугл принял страницы page как дубли? (См. Скриншот) как от этого избавиться вообще?
Что за страницы? Каждая из них уникальная? Или это навигация по подстраницам категории?
Изменено: Ansy - 29 Ноября 2016 12:58
Цитата
Ansy пишет:
Что за страницы? Каждая из них уникальная? Или это навигация по подстраницам категории?
Это навигация по категоии, например в категории находится много новостей, на одну страницу все не помещается вот от сюда эти страницы и появляются page/2/ что означает вторая страница этой категории page/3/ page/4/ и тд
Цитата
Rich Dad пишет:
Это навигация по категоии, например в категории находится много новостей,


И почему вас удивляет, что такие страницы гугл посчитал дублем? Контент то на них частично копирует полные новости отсюда и дублирование. Такие страницы надо закрывать от индексации, либо в роботсе, что с гуглом не всегда помогает, либо с помощью мета-тега noindex. Либо как вариант, если не хотите запрещать индексацию, то писать уникальные анонсы к новостям.

Цитата
masterrabot пишет:
И почему вас удивляет, что такие страницы гугл посчитал дублем? Контент то на них частично копирует полные новости отсюда и дублирование. Такие страницы надо закрывать от индексации, либо в роботсе, что с гуглом не всегда помогает, либо с помощью мета-тега noindex. Либо как вариант, если не хотите запрещать индексацию, то писать уникальные анонсы к новостям.
Я вот так закрыл данную страницу, Disallow: /page/ Вроде правильно но они всё равно в поиске почему то
Цитата
Rich Dad пишет:
Disallow: /page/ Вроде правильно но они всё равно в поиске почему то


Закрыли правильно, но гуглу роботс часто не указ, он эту директиву просто игнорит. Поэтому надо из роботса этот запрет убрать вообще, а на проблемных страницах в хэдере прописать <meta name="robots" content="noindex">
Вот ссылка на гугловскую спраку вебмастерам: _https://support.google.com/webmasters/answer/93710?hl=ru
Цитата
masterrabot пишет:
Закрыли правильно, но гуглу роботс часто не указ, он эту директиву просто игнорит. Поэтому надо из роботса этот запрет убрать вообще, а на проблемных страницах в хэдере прописать <meta name="robots" content="noindex">
Вот ссылка на гугловскую спраку вебмастерам: _https://support.google.com/webmasters/answer/93710?hl=ru
Хорошо спасибо, только вот не много не понимаю как на навигационных страницах запрет прописать, попробую покапаться
Цитата
Rich Dad пишет:
как на навигационных страницах запрет прописать


Тут я вам не помогу, у вас же DLE, а я в нем не силен.
Цитата
masterrabot пишет:

Тут я вам не помогу, у вас же DLE, а я в нем не силен.
А как в  закрыть вот такую страницу http://сайт/news/page/4/ ? Что бы http://сайт/news индексировались а вот эти страницы нет http://сайт/news/page, знаете?
Цитата
Rich Dad пишет:
А как в
/robots.txt
Хотя всё, разобрался.

Disallow: */page/

Такой вариант решил проблему 
Цитата
Rich Dad пишет:
Хотя всё, разобрался.
А вообще есть плагин удаления дублей
Цитата
Вячеслав Шаров пишет:
А вообще есть плагин удаления дублей
Какой нафиг плагин? smile:D
Цитата
Rich Dad пишет:
Disallow: */page/
Всё верно
Мы не можем похвастаться мудростью глаз
И умелыми жестами рук,
Нам не нужно все это, чтобы друг друга понять.
Сигареты в руках, чай на столе - так замыкается круг,
И вдруг нам становится страшно что-то менять.
Цитата
Вячеслав Шаров пишет:
Цитата
Rich Dad пишет:
Хотя всё, разобрался.
А вообще есть плагин удаления дублей
первый раз слышу smile:)
В принципе ничего страшного в этом нет, если есть параметр канонических страниц. Но многие еще делают допись стр.1 стр.2 и тд в тайтл, и дескрипшн, именно оттуда ведь гугл дает дубли
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
08:46 Раскрутка форума 
23:46 adsense в 2026: кто реально выводит копейку через киргизию? 
22:09 Как поймать партнера на «сливе» бренда? 
22:05 Очередной взлом через плагин. Хакеры получают админку без пароля 
20:40 Мошенники-копирайтеры 
17:52 Подскажите ТОП 5-10 ИМ с современным дизайном? 
17:42 Биржи ссылок в 2026 - реально ли новичку с одним сайтом поднять копейку? 
09:36 Swapwatch.org — Мониторинг криптовалютных обменников 
09:29 От $0.015 за IP | $0.68 за ГБ | 9PROXY.COM | 20+ млн резидентных прокси | 99,95% аптайм | Без чёрных списков 
23:48 GoodsMoney.io 
23:46 Volna.money 
22:37 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
18:14 Bardo — Бюро развития и координации цифровых операций. 
17:32 Вериф аккаунты АВИТО + платежи 
08:34 молодильные яблоки и живая вода 
22:13 8 марта: желаю аптайма 99.9% и e-e-a-t без локов 
19:04 Какой фильм вы любите посмотреть перед сном? 
19:03 О природе путешествий. 
19:02 Огородники 
01:47 Точные прогнозы на футбол 
15:04 Сайты Рунета