Скрывать ли категории (рубрики)
Страницы: 1 2 3 След.
Скрывать ли категории (рубрики), Спорный вопрос.
Вечный спор.

Всем доброго времени суток.Грызя гранит науки по оптимизации и продвижению сайта, дошел до момента составления robots.txt. Прочитал много информации по этому поводу. И удивил один факт. На многих сайтах и форумах ведутся споры по поводу скрытия категорий (рубрик) от роботов. Все спорящие приводят на мой взгляд весомые аргументы в пользу своей точки зрения. Но вот к общему знаменателю прийти не могут.

Сколько людей столько и мнений.

Одни говорят, что рубрики создают дубли и не несут в себе никакой пользы, так как не имеет смысла составлять на них большое описание и оптимизировать его. Другие же отвечают, что описание составлять нужно, и можно получить хороший траффик. а вот дубли это мелочь.
Третьи утверждают, что оставлять рубрики открытыми, стоит лишь при торговле ссылками. С целью дополнительного рекламного места.
Я же открыв рот сижу и не знаю как поступать. 

Как быть?

Дело в том, что на моем сайте www.infoint.ru/]Мой сайт, достаточно категорий. Делал я их для удобства пользователей. К каждой категории составил описание (короткое. пару предложений. зато уникальное), подобрал ключевики. Но вот дубли страниц меня пугают. Да и взять в толк не возьму, о каких дублях идет речь? Если переходишь в рубрику, там только анонсы новостей. Десять слов из текста и картинка. В итоге я совсем запутался и решил задать вопрос сам. По тем, так сказать, параметрам, которые меня интересуют.

Резюме

Для тех у кого нет времени отвечать по всем пунктам, спрошу вкраце. Каким образом категории создают дубли страниц. Как оставить категории с минимальными потерями. А оставлять ли из вообще?

Всем заранее спасибо, за проявленный интерес.
Под дублями в данном случае подразумевается пангинация. По поводу закрытия разделов. Лично я считаю, что кто закрывает, просто теряет трафик по жирным СЧ. Но если у вас уже отстоявшийся сайт и "не дай бог с трафиком", то открытие может непредсказуемо отразиться на отношении ПС к сайту!
Что-то я на вашем сайте описаний категорий не увидел. Описание категорий это когда пишется текст с НЧ ключами и закрепляется на первой странице категории. Если делать категории открытыми к индексации, то тогда закрывают в роботсе  /page/ то есть страницы. Дубли возникают из-за анонсов статей. Можно писать уникальный текст для анонсов и при публикации статьи пользоваться связкой тэгов <!--more--><!--noteaser-->. В этом случае анонсы будут уникальны и страницы можно не закрывать к индексации.

Цитата
masterrabot пишет:
Что-то я на вашем сайте описаний категорий не увидел
Вот же оно. И так для каждой рубрики. По поводу анонса. Лучше описание убрать и оставить просто тайтл записи. Тогда дублей не будет?
http://vfl.ru/fotos/307c54a314242256.html
Изменено: Mactep mactep - 24 Сентября 2016 19:25
Цитата
Mactep mactep пишет:
Лучше описание убрать и оставить просто тайтл записи. Тогда дублей не будет?


Не понял какое описание убрать? Анонсы? Дубли все равно будут поэтому page, то есть страницы пангинации обязательно надо закрыть роботсом.
Цитата
masterrabot пишет:
Цитата
Mactep mactep пишет:
Лучше описание убрать и оставить просто тайтл записи. Тогда дублей не будет?


Не понял какое описание убрать? Анонсы? Дубли все равно будут поэтому page, то есть страницы пангинации обязательно надо закрыть роботсом.
Убрать красткое описание статьей в анонсах. Об этом речь.
Цитата
Mactep mactep пишет:
Убрать красткое описание статьей в анонсах. Об этом речь.

Повторюсь, page закройте от индексации, а категории оставьте открытыми для индекса.
Изменено: masterrabot - 24 Сентября 2016 19:46
Цитата
masterrabot пишет:
Цитата
Mactep mactep пишет:
Убрать красткое описание статьей в анонсах. Об этом речь.

Повторюсь, page закройте от индексации, а категории оставьте открытыми для индекса.
Закрывать от индексации страницы, звучит как то опасно ))
но я так понимаю раз на них нет текста они не нужны?
Так оформить робост?
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /tag
Disallow: /page
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /tag
Disallow: /page
Host: www.retro-film.ucoz.ru
Sitemap: www.infoint.ru//sitemap.xml.gz
Sitemap: www.infoint.ru//sitemap.xml
Я бы добавил слеш в конце, то есть Disallow: /page/
Цитата
masterrabot пишет:
Я бы добавил слеш в конце, то есть Disallow: /page/
Спасибо огромное! Вы мне очень помогли.
Ничего закрывать не надо, я про категории! Одним "роботом" и строкой Disallow: /page/ вы ничего не закроете! Роботы будут хватать страницы пагинации, особенно Гугл. Я так понимаю у вас Wordpress, так вот, установите плагин Yoast SEO. В его настройках можно отключить страницы page и прописать канонический адрес для каждой страницы, чтобы робот понимал, какая страница основная! Обязательно это сделайте!  
 Во-вторых. Это что в роботе?

Host: www.retro-film.ucoz.ru 
Sitemap: www.infoint.ru//sitemap.xml.gz 
Sitemap: www.infoint.ru//sitemap.xml
Цитата
Сергей пишет:
Ничего закрывать не надо, я про категории! Одним "роботом" и строкой Disallow: /page/ вы ничего не закроете! Роботы будут хватать страницы пагинации, особенно Гугл. Я так понимаю у вас Wordpress, так вот, установите плагин Yoast SEO. В его настройках можно отключить страницы page и прописать канонический адрес для каждой страницы, чтобы робот понимал, какая страница основная! Обязательно это сделайте!
Во-вторых. Это что в роботе?

Host: www.retro-film.ucoz.ru
Sitemap: www.infoint.ru//sitemap.xml.gz
Sitemap: www.infoint.ru//sitemap.xml
это для второго сайта. Там на самом деле этого нет. Просто использую этот текстовик как шаблон. Сергей. Я использую как раз этот плагин, о котором вы говорите.
Вы советуете закрыть там только страницы? А категории и медиафайлы оставить открытыми? А насчет канонического адреса, я почитал и не понял куда прописывать код для каждой страницы. В самом плагине? Если да то где именно? Спасибо.
Цитата
Сергей пишет:
//sitemap.xml.gz
//sitemap.xml
Думаю чел сделал опечатку, по одному слешу лишнему.
Ютуб канал Сделай сам
Дзен канал Сделай сам
Цитата
Серж пишет:
Цитата
Сергей пишет:
//sitemap.xml.gz
//sitemap.xml
Думаю чел сделал опечатку, по одному слешу лишнему.
Да, спасибо. Исправил.
Цитата
Mactep mactep пишет:
Цитата
Сергей пишет:
Ничего закрывать не надо, я про категории! Одним "роботом" и строкой Disallow: /page/ вы ничего не закроете! Роботы будут хватать страницы пагинации, особенно Гугл. Я так понимаю у вас Wordpress, так вот, установите плагин Yoast SEO. В его настройках можно отключить страницы page и прописать канонический адрес для каждой страницы, чтобы робот понимал, какая страница основная! Обязательно это сделайте!
Во-вторых. Это что в роботе?

Host: www.retro-film.ucoz.ru
Sitemap: www.infoint.ru//sitemap.xml.gz
Sitemap: www.infoint.ru//sitemap.xml
это для второго сайта. Там на самом деле этого нет. Просто использую этот текстовик как шаблон. Сергей. Я использую как раз этот плагин, о котором вы говорите.
Вы советуете закрыть там только страницы? А категории и медиафайлы оставить открытыми? А насчет канонического адреса, я почитал и не понял куда прописывать код для каждой страницы. В самом плагине? Если да то где именно? Спасибо.
Сейчас посмотрел. У меня на каждой странице уже прописаны такие коды : 
Код
<link rel="canonical" href="www.infoint.ru/hvoynyiy-les-udivitelnaya-polza/" />
 
Видимо я сам того не зная, сделал это в плагине. Подскажите, а где эта настройка включается в нем? Чтобы на будущее знать. И теперь получается мне можно удирать закрытые страницы из роботса? И нужно ли закрывать аатчмент? У меня для каждой картинки прописан альт с ключевиком. робот видит это на странице с записью? или нужно чтобы обязательно создавалась новая страница файла? Но тогда боюсь будет дубль.
Страницы: 1 2 3 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
18:09 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
15:06 Влияние ссылок буржнете 
10:53 SharkBoss - партнёрская программа для монетизации ЛЮБЫХ видов трафика (включая спам). 
08:36 Обновления интерфейса яндекс метрики 
15:13 Рапида умерла. Куда выводить с AdSense? 
15:05 Чем заменили ТИЦ? 
15:01 Profit Pixels - In-House Форекс, Крипто, Трейдинг CPA Офферы | Еженедельные Выплаты | CPA до $950 
10:21 [eBucks] Автоматический обмен криптовалют. BTC и любые альткоины. Киви, Банковские карты и др. электронные системы. 
22:15 Криптовалютный обменник Xgram.io - новое воплощение качества 
15:49 Проверка на индекс в Telegram боте @SpeedyIndexbot 
13:47 HidMark.com - естественные ссылки от 1.5$ Естественные ссылки. Крауд-маркетинг. 
12:05 USMobileSMSBot - 
11:16 4G/LTE Mobile Proxy 30+ geo  
15:34 «Взрываем языковые преграды» – переводим любые тексты 
22:48 150+ хакерских поисковых систем и инструментов 
22:43 Точные прогнозы на футбол 
19:49 Текст.ру преподнёс "подарок" 
18:12 Подтягиваем физкультурку 
13:45 В России снизили беспошлинный порог для онлайн-покупок 
13:30 Тренды заработка 2024-2025 
13:12 Суд постановил заблокировать Telegram