Почему гугл принял страницы page как дубль?
Страницы: 1
Почему гугл принял страницы page как дубль?
Почему гугл принял страницы page как дубли? (См. Скриншот) как от этого избавиться вообще?

Прогон по твиттеру, постинг в 1500 аккунтов
Постинг в твиттер аккаунты, для ускорения индексации ваших сайтов, сателлитов, дорвеев.

Что за страницы? Каждая из них уникальная? Или это навигация по подстраницам категории?
Изменено: Ansy - 29 Ноября 2016 12:58
Цитата
Ansy пишет:
Что за страницы? Каждая из них уникальная? Или это навигация по подстраницам категории?
Это навигация по категоии, например в категории находится много новостей, на одну страницу все не помещается вот от сюда эти страницы и появляются page/2/ что означает вторая страница этой категории page/3/ page/4/ и тд
Цитата
Rich Dad пишет:
Это навигация по категоии, например в категории находится много новостей,


И почему вас удивляет, что такие страницы гугл посчитал дублем? Контент то на них частично копирует полные новости отсюда и дублирование. Такие страницы надо закрывать от индексации, либо в роботсе, что с гуглом не всегда помогает, либо с помощью мета-тега noindex. Либо как вариант, если не хотите запрещать индексацию, то писать уникальные анонсы к новостям.

Цитата
masterrabot пишет:
И почему вас удивляет, что такие страницы гугл посчитал дублем? Контент то на них частично копирует полные новости отсюда и дублирование. Такие страницы надо закрывать от индексации, либо в роботсе, что с гуглом не всегда помогает, либо с помощью мета-тега noindex. Либо как вариант, если не хотите запрещать индексацию, то писать уникальные анонсы к новостям.
Я вот так закрыл данную страницу, Disallow: /page/ Вроде правильно но они всё равно в поиске почему то
Цитата
Rich Dad пишет:
Disallow: /page/ Вроде правильно но они всё равно в поиске почему то


Закрыли правильно, но гуглу роботс часто не указ, он эту директиву просто игнорит. Поэтому надо из роботса этот запрет убрать вообще, а на проблемных страницах в хэдере прописать <meta name="robots" content="noindex">
Вот ссылка на гугловскую спраку вебмастерам: _https://support.google.com/webmasters/answer/93710?hl=ru
Цитата
masterrabot пишет:
Закрыли правильно, но гуглу роботс часто не указ, он эту директиву просто игнорит. Поэтому надо из роботса этот запрет убрать вообще, а на проблемных страницах в хэдере прописать <meta name="robots" content="noindex">
Вот ссылка на гугловскую спраку вебмастерам: _https://support.google.com/webmasters/answer/93710?hl=ru
Хорошо спасибо, только вот не много не понимаю как на навигационных страницах запрет прописать, попробую покапаться
Цитата
Rich Dad пишет:
как на навигационных страницах запрет прописать


Тут я вам не помогу, у вас же DLE, а я в нем не силен.
Цитата
masterrabot пишет:

Тут я вам не помогу, у вас же DLE, а я в нем не силен.
А как в  закрыть вот такую страницу http://сайт/news/page/4/ ? Что бы http://сайт/news индексировались а вот эти страницы нет http://сайт/news/page, знаете?
Цитата
Rich Dad пишет:
А как в
/robots.txt
Хотя всё, разобрался.

Disallow: */page/

Такой вариант решил проблему 
Цитата
Rich Dad пишет:
Хотя всё, разобрался.
А вообще есть плагин удаления дублей
Цитата
Вячеслав Шаров пишет:
А вообще есть плагин удаления дублей
Какой нафиг плагин? smile:D
Цитата
Rich Dad пишет:
Disallow: */page/
Всё верно
У шамана три руки,
Мир вокруг, как темный зал,
На ладонях золотых
Нарисованы глаза,
Видит розовый рассвет
Прежде солнца самого,
А казалось, будто спит
И не знает ничего.

У шамана три руки,
Сад в рубиновых лучах,
От дыхания его разгорается...
Цитата
Вячеслав Шаров пишет:
Цитата
Rich Dad пишет:
Хотя всё, разобрался.
А вообще есть плагин удаления дублей
первый раз слышу smile:)
В принципе ничего страшного в этом нет, если есть параметр канонических страниц. Но многие еще делают допись стр.1 стр.2 и тд в тайтл, и дескрипшн, именно оттуда ведь гугл дает дубли
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
05:31 Программа по накрутке Яндекс Эфир, Яндекс Дзен. Скрипт YandexZenPro 
05:11 Трафик WebVisitor_Pro улучшение и накрутка поведенческих факторов ранжирования вашего сайта 
01:22 выдача 24.02.2021 | Яндекс уберёт с первой позиции свои ресурсы? 
00:18 Сайт был исключен из списка источников Дзена из-за низкой доли собственной аудитории. 
22:23 Прибыльную и надежную партнёрку Perestroika Affiliates - в каждый дом! 
20:33 ФАС запретила "Яндексу" занижать позиции конкурентов в поисковой выдаче 
19:12 Clickpay.Money — push-партнерка для лёгкой и удобной монетизации ваших площадок! 
22:50 Продвину сайт качественными ссылками. Рост посещаемости, позиций и ИКС. Крауд ссылки недорого + скидки. 
21:52 Профильный прогон 200 рублей, Тиц (Икс) от 10, проверен Checktrust 
19:35 TorgWM - Онлайн обмен Qiwi, VISA, Mastercard, Webmoney на Paysera в EUR/USD или на SEPA. 
19:26 Bitality.cc - обменник электронных валют 
18:47 Обмен/Вывод криптовалют и электронных денег в разных странах 
16:41 Флудер телефонов 
16:27 Majento PositionMeter - Быстрое сканирование Яндекс и Google 
00:28 Тот момент, когда лучше жить в небогатом государстве 
00:24 Продаю крупные аккаунты в Инстаграме (дешево) 
22:12 Проверяем "Анализ сайта" 
21:57 Wildberries запустился во Франции, Италии и Испании 
17:42 Соцсеть Golos с заработком за посты 
09:12 Россиянки рассказали, сколько должен зарабатывать мужчина на содержание семьи 
09:06 РБК: Маск потерял $15 млрд и лидерство в рейтинге после падения курса биткоина