Почему гугл принял страницы page как дубль?
Страницы: 1
Почему гугл принял страницы page как дубль?
Почему гугл принял страницы page как дубли? (См. Скриншот) как от этого избавиться вообще?

Прогон по твиттеру, постинг в 1500 аккунтов
Постинг в твиттер аккаунты, для ускорения индексации ваших сайтов, сателлитов, дорвеев.

Что за страницы? Каждая из них уникальная? Или это навигация по подстраницам категории?
Изменено: Ansy - 29 Ноября 2016 12:58
Цитата
Ansy пишет:
Что за страницы? Каждая из них уникальная? Или это навигация по подстраницам категории?
Это навигация по категоии, например в категории находится много новостей, на одну страницу все не помещается вот от сюда эти страницы и появляются page/2/ что означает вторая страница этой категории page/3/ page/4/ и тд
Цитата
Rich Dad пишет:
Это навигация по категоии, например в категории находится много новостей,


И почему вас удивляет, что такие страницы гугл посчитал дублем? Контент то на них частично копирует полные новости отсюда и дублирование. Такие страницы надо закрывать от индексации, либо в роботсе, что с гуглом не всегда помогает, либо с помощью мета-тега noindex. Либо как вариант, если не хотите запрещать индексацию, то писать уникальные анонсы к новостям.

Цитата
masterrabot пишет:
И почему вас удивляет, что такие страницы гугл посчитал дублем? Контент то на них частично копирует полные новости отсюда и дублирование. Такие страницы надо закрывать от индексации, либо в роботсе, что с гуглом не всегда помогает, либо с помощью мета-тега noindex. Либо как вариант, если не хотите запрещать индексацию, то писать уникальные анонсы к новостям.
Я вот так закрыл данную страницу, Disallow: /page/ Вроде правильно но они всё равно в поиске почему то
Цитата
Rich Dad пишет:
Disallow: /page/ Вроде правильно но они всё равно в поиске почему то


Закрыли правильно, но гуглу роботс часто не указ, он эту директиву просто игнорит. Поэтому надо из роботса этот запрет убрать вообще, а на проблемных страницах в хэдере прописать <meta name="robots" content="noindex">
Вот ссылка на гугловскую спраку вебмастерам: _https://support.google.com/webmasters/answer/93710?hl=ru
Цитата
masterrabot пишет:
Закрыли правильно, но гуглу роботс часто не указ, он эту директиву просто игнорит. Поэтому надо из роботса этот запрет убрать вообще, а на проблемных страницах в хэдере прописать <meta name="robots" content="noindex">
Вот ссылка на гугловскую спраку вебмастерам: _https://support.google.com/webmasters/answer/93710?hl=ru
Хорошо спасибо, только вот не много не понимаю как на навигационных страницах запрет прописать, попробую покапаться
Цитата
Rich Dad пишет:
как на навигационных страницах запрет прописать


Тут я вам не помогу, у вас же DLE, а я в нем не силен.
Цитата
masterrabot пишет:

Тут я вам не помогу, у вас же DLE, а я в нем не силен.
А как в  закрыть вот такую страницу http://сайт/news/page/4/ ? Что бы http://сайт/news индексировались а вот эти страницы нет http://сайт/news/page, знаете?
Цитата
Rich Dad пишет:
А как в
/robots.txt
Хотя всё, разобрался.

Disallow: */page/

Такой вариант решил проблему 
Цитата
Rich Dad пишет:
Хотя всё, разобрался.
А вообще есть плагин удаления дублей
Цитата
Вячеслав Шаров пишет:
А вообще есть плагин удаления дублей
Какой нафиг плагин? smile:D
Цитата
Rich Dad пишет:
Disallow: */page/
Всё верно
Кому-нибудь другому очень просто рассказать, как надо жить и что делать. Я бы любому все объяснил. И даже показал бы, к каким огням лететь и как. А если то же самое надо делать самому, сидишь на месте или летишь совсем в другую сторону. © В. П.
Цитата
Вячеслав Шаров пишет:
Цитата
Rich Dad пишет:
Хотя всё, разобрался.
А вообще есть плагин удаления дублей
первый раз слышу smile:)
В принципе ничего страшного в этом нет, если есть параметр канонических страниц. Но многие еще делают допись стр.1 стр.2 и тд в тайтл, и дескрипшн, именно оттуда ведь гугл дает дубли
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
15:47 А у вас апдейт убежал. 16.12.18 яндекс выдача 
14:23 Adsense личный опыт 
11:30 Рекламная сеть яндекса личный опыт 
11:05 Липкие объявления от РСЯ 
09:28 В теме тема СИсек не раскрыта. АП 15.12 Яндекс выдача 
21:44 Сколько ссылок нужно покупать (сайту 6 месяцев) 
20:21 Откройте секреты продвижения медицинского новостного сайта..... 
16:23 Софт на заказ 
16:12 Эффективные внешние ссылки с Яндекс.Вебмастер - Блоги, Статьи, Профили, Форумы, Википедия, Подписи, Комментарии, Анкорный и Безанкорный прогон со статьей. 
15:28 Сервис услуг в YouTube, Вконтакте, Instagram, Twitter, Facebook, Одноклассники, Google+ 
15:20 Новый бот для 999Dice 
14:01 Продажа Dedicated servers (дедиков)! 
14:00 Продвижение сайтов, прогон Xrumer, грамотно наращиваем посещаемость вашего ресурса! 
13:39 Профессиональное размножение текстов 
15:27 Где и как встретите Новый год? 
14:09 Игры на форуме 
11:27 Если бы у Чехова был телевизор, то он стал бы обычным районным врачом 
19:11 Вы и спорт 
18:22 Нужен кликандер или что то в этом роде 
18:19 Добавление страниц в индекс Бинг Гугл Яндекс 
17:48 SEO продвижение сайтов в Яндекс, Google. Поднятие ИКС сайту, исправления ошибок, разработка стратегий