Скрывать ли категории (рубрики)
Страницы: 1 2 3 След.
Скрывать ли категории (рубрики), Спорный вопрос.
Вечный спор.

Всем доброго времени суток.Грызя гранит науки по оптимизации и продвижению сайта, дошел до момента составления robots.txt. Прочитал много информации по этому поводу. И удивил один факт. На многих сайтах и форумах ведутся споры по поводу скрытия категорий (рубрик) от роботов. Все спорящие приводят на мой взгляд весомые аргументы в пользу своей точки зрения. Но вот к общему знаменателю прийти не могут.

Сколько людей столько и мнений.

Одни говорят, что рубрики создают дубли и не несут в себе никакой пользы, так как не имеет смысла составлять на них большое описание и оптимизировать его. Другие же отвечают, что описание составлять нужно, и можно получить хороший траффик. а вот дубли это мелочь.
Третьи утверждают, что оставлять рубрики открытыми, стоит лишь при торговле ссылками. С целью дополнительного рекламного места.
Я же открыв рот сижу и не знаю как поступать. 

Как быть?

Дело в том, что на моем сайте www.infoint.ru/]Мой сайт, достаточно категорий. Делал я их для удобства пользователей. К каждой категории составил описание (короткое. пару предложений. зато уникальное), подобрал ключевики. Но вот дубли страниц меня пугают. Да и взять в толк не возьму, о каких дублях идет речь? Если переходишь в рубрику, там только анонсы новостей. Десять слов из текста и картинка. В итоге я совсем запутался и решил задать вопрос сам. По тем, так сказать, параметрам, которые меня интересуют.

Резюме

Для тех у кого нет времени отвечать по всем пунктам, спрошу вкраце. Каким образом категории создают дубли страниц. Как оставить категории с минимальными потерями. А оставлять ли из вообще?

Всем заранее спасибо, за проявленный интерес.

Прогон по твиттеру, постинг в 1500 аккунтов
Постинг в твиттер аккаунты, для ускорения индексации ваших сайтов, сателлитов, дорвеев.

Под дублями в данном случае подразумевается пангинация. По поводу закрытия разделов. Лично я считаю, что кто закрывает, просто теряет трафик по жирным СЧ. Но если у вас уже отстоявшийся сайт и "не дай бог с трафиком", то открытие может непредсказуемо отразиться на отношении ПС к сайту!
Что-то я на вашем сайте описаний категорий не увидел. Описание категорий это когда пишется текст с НЧ ключами и закрепляется на первой странице категории. Если делать категории открытыми к индексации, то тогда закрывают в роботсе  /page/ то есть страницы. Дубли возникают из-за анонсов статей. Можно писать уникальный текст для анонсов и при публикации статьи пользоваться связкой тэгов <!--more--><!--noteaser-->. В этом случае анонсы будут уникальны и страницы можно не закрывать к индексации.
Цитата
masterrabot пишет:
Что-то я на вашем сайте описаний категорий не увидел
Вот же оно. И так для каждой рубрики. По поводу анонса. Лучше описание убрать и оставить просто тайтл записи. Тогда дублей не будет?
http://vfl.ru/fotos/307c54a314242256.html
Изменено: Mactep mactep - 24 Сентября 2016 19:25
Цитата
Mactep mactep пишет:
Лучше описание убрать и оставить просто тайтл записи. Тогда дублей не будет?


Не понял какое описание убрать? Анонсы? Дубли все равно будут поэтому page, то есть страницы пангинации обязательно надо закрыть роботсом.
Цитата
masterrabot пишет:
Цитата
Mactep mactep пишет:
Лучше описание убрать и оставить просто тайтл записи. Тогда дублей не будет?


Не понял какое описание убрать? Анонсы? Дубли все равно будут поэтому page, то есть страницы пангинации обязательно надо закрыть роботсом.
Убрать красткое описание статьей в анонсах. Об этом речь.
Цитата
Mactep mactep пишет:
Убрать красткое описание статьей в анонсах. Об этом речь.

Повторюсь, page закройте от индексации, а категории оставьте открытыми для индекса.
Изменено: masterrabot - 24 Сентября 2016 19:46
Цитата
masterrabot пишет:
Цитата
Mactep mactep пишет:
Убрать красткое описание статьей в анонсах. Об этом речь.

Повторюсь, page закройте от индексации, а категории оставьте открытыми для индекса.
Закрывать от индексации страницы, звучит как то опасно ))
но я так понимаю раз на них нет текста они не нужны?
Так оформить робост?
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /tag
Disallow: /page
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /tag
Disallow: /page
Host: www.retro-film.ucoz.ru
Sitemap: www.infoint.ru//sitemap.xml.gz
Sitemap: www.infoint.ru//sitemap.xml
Я бы добавил слеш в конце, то есть Disallow: /page/
Цитата
masterrabot пишет:
Я бы добавил слеш в конце, то есть Disallow: /page/
Спасибо огромное! Вы мне очень помогли.
Ничего закрывать не надо, я про категории! Одним "роботом" и строкой Disallow: /page/ вы ничего не закроете! Роботы будут хватать страницы пагинации, особенно Гугл. Я так понимаю у вас Wordpress, так вот, установите плагин Yoast SEO. В его настройках можно отключить страницы page и прописать канонический адрес для каждой страницы, чтобы робот понимал, какая страница основная! Обязательно это сделайте!  
 Во-вторых. Это что в роботе?

Host: www.retro-film.ucoz.ru 
Sitemap: www.infoint.ru//sitemap.xml.gz 
Sitemap: www.infoint.ru//sitemap.xml
Цитата
Сергей пишет:
Ничего закрывать не надо, я про категории! Одним "роботом" и строкой Disallow: /page/ вы ничего не закроете! Роботы будут хватать страницы пагинации, особенно Гугл. Я так понимаю у вас Wordpress, так вот, установите плагин Yoast SEO. В его настройках можно отключить страницы page и прописать канонический адрес для каждой страницы, чтобы робот понимал, какая страница основная! Обязательно это сделайте!
Во-вторых. Это что в роботе?

Host: www.retro-film.ucoz.ru
Sitemap: www.infoint.ru//sitemap.xml.gz
Sitemap: www.infoint.ru//sitemap.xml
это для второго сайта. Там на самом деле этого нет. Просто использую этот текстовик как шаблон. Сергей. Я использую как раз этот плагин, о котором вы говорите.
Вы советуете закрыть там только страницы? А категории и медиафайлы оставить открытыми? А насчет канонического адреса, я почитал и не понял куда прописывать код для каждой страницы. В самом плагине? Если да то где именно? Спасибо.
Цитата
Сергей пишет:
//sitemap.xml.gz
//sitemap.xml
Думаю чел сделал опечатку, по одному слешу лишнему.
Цитата
Серж пишет:
Цитата
Сергей пишет:
//sitemap.xml.gz
//sitemap.xml
Думаю чел сделал опечатку, по одному слешу лишнему.
Да, спасибо. Исправил.
Цитата
Mactep mactep пишет:
Цитата
Сергей пишет:
Ничего закрывать не надо, я про категории! Одним "роботом" и строкой Disallow: /page/ вы ничего не закроете! Роботы будут хватать страницы пагинации, особенно Гугл. Я так понимаю у вас Wordpress, так вот, установите плагин Yoast SEO. В его настройках можно отключить страницы page и прописать канонический адрес для каждой страницы, чтобы робот понимал, какая страница основная! Обязательно это сделайте!
Во-вторых. Это что в роботе?

Host: www.retro-film.ucoz.ru
Sitemap: www.infoint.ru//sitemap.xml.gz
Sitemap: www.infoint.ru//sitemap.xml
это для второго сайта. Там на самом деле этого нет. Просто использую этот текстовик как шаблон. Сергей. Я использую как раз этот плагин, о котором вы говорите.
Вы советуете закрыть там только страницы? А категории и медиафайлы оставить открытыми? А насчет канонического адреса, я почитал и не понял куда прописывать код для каждой страницы. В самом плагине? Если да то где именно? Спасибо.
Сейчас посмотрел. У меня на каждой странице уже прописаны такие коды : 
Код
<link rel="canonical" href="www.infoint.ru/hvoynyiy-les-udivitelnaya-polza/" />
 
Видимо я сам того не зная, сделал это в плагине. Подскажите, а где эта настройка включается в нем? Чтобы на будущее знать. И теперь получается мне можно удирать закрытые страницы из роботса? И нужно ли закрывать аатчмент? У меня для каждой картинки прописан альт с ключевиком. робот видит это на странице с записью? или нужно чтобы обязательно создавалась новая страница файла? Но тогда боюсь будет дубль.
Страницы: 1 2 3 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
02:34 Какой формат заголовков H1 использовать? 
02:30 Bodyclick.net - рекламная партнерская сеть. 
02:28 ОЛХ забил всю выдачу Google 
02:26 Вопрос к тем кто работает с "Мутагеном" 
02:23 22 сентября 2017 : Текстовый апдейт и обновление базы 
01:56 Апдейт 26.09 
01:20 Редирект ссылки на рубрику 
00:38 Бесплатный SEO-Аудит. Получи 3 полных отчета по сайту! 
00:32 Комплексная раскрутка сайтов. Качественные услуги, прогоны и прочее. (3000+ отзывов) 
00:31 Заполнить шаблон сайта на ВП 
00:08 Продвижение сайтов «прогоны xrumer, статейный» большой выбор тарифов 
23:56 Аудит сайта по низкой цене 
23:53 Вечные ссылки с ТОПОВЫХ ресурсов! Размещение вечных трастовых ссылок с тИЦ от + 1000 до +45000 
19:55 Продам сайт читерской темптики 
02:28 Как в урл .php заменить на слэш 
01:13 Callback сервис для малопосещаемых сайтов (экономия 80%) 
00:24 Нарушение прав правообладателей на кино сайтах 
23:12 Вид в выдаче гугл? 
22:55 Вопрос по роутеру TP-Link 
19:39 назойливая компания предлагает раскрутку сайта 
18:46 Не работает опера VPN, что делать?