robots.txt Yandex
Страницы: 1
robots.txt Yandex, нид хелп!
Добрый день, Гуру оптимизации!
На сегодня у меня два вопроса: 1., вчера заглянул в "страницы" загруженные яндексом, их у меня почти 3000 зотя на самом деле всего 300 записей. Задался вопросом, откуда? посмотрел загружено feed=rss2& - около 1000 страниц, получается дубляж контента. Нужно ли для Яндекса зарвывать этот РСС канал?
2. В роботс.хтх если закрываю disallow: /archives/ то у меня перестают индексироваться категории или рубрики моего сайта! аля структура оказалась /archives/category/ индексацию проходят и рубрики и архивы...опять дубль! Пощему нащальнике??? что мне теперь делать? Как сделать так чтобы индексировались только категории?
Цитата
Gena Gabdullin пишет:
Добрый день, Гуру оптимизации!
На сегодня у меня два вопроса: 1., вчера заглянул в "страницы" загруженные яндексом, их у меня почти 3000 зотя на самом деле всего 300 записей. Задался вопросом, откуда? посмотрел загружено feed=rss2& - около 1000 страниц, получается дубляж контента. Нужно ли для Яндекса зарвывать этот РСС канал?
2. В роботс.хтх если закрываю disallow: /archives/ то у меня перестают индексироваться категории или рубрики моего сайта! аля структура оказалась /archives/category/ индексацию проходят и рубрики и архивы...опять дубль! Пощему нащальнике??? что мне теперь делать? Как сделать так чтобы индексировались только категории?

конечно нужно,помню как через дубль у моего СДЛ повылетали все старницы, я уже думал что бан, но после устранения дубля и письма платонам стало все нормально)
Цитата
Gena Gabdullin пишет:
Добрый день, Гуру оптимизации!
На сегодня у меня два вопроса: 1., вчера заглянул в "страницы" загруженные яндексом, их у меня почти 3000 зотя на самом деле всего 300 записей. Задался вопросом, откуда? посмотрел загружено feed=rss2& - около 1000 страниц, получается дубляж контента. Нужно ли для Яндекса зарвывать этот РСС канал?
2. В роботс.хтх если закрываю disallow: /archives/ то у меня перестают индексироваться категории или рубрики моего сайта! аля структура оказалась /archives/category/ индексацию проходят и рубрики и архивы...опять дубль! Пощему нащальнике??? что мне теперь делать? Как сделать так чтобы индексировались только категории?

а зачем Вам чтобы индексировались категории и рубрики? smile:) я вообще весь дубль закрыл, т.е. в индексе только "чистые" страницы.
Цитата
deezy пишет:
а зачем Вам чтобы индексировались категории и рубрики? я вообще весь дубль закрыл, т.е. в индексе только "чистые" страницы.


Поделитесь плиз своим роботс.тхт?

Кстати у меня страницы повылетали, думаю может из-за дублей...
в общем нашел я благодаря рдс бару, через хром на сайте у Миши Шакина роботс.тхт, поставлю себе, должен хорошо работать, кому нужен вот он
User-agent: *
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Disallow: /category/*/*
Disallow: /wp-content/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments

User-agent: Yandex
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Disallow: /category/*/*
Disallow: /wp-content/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments
Цитата
Gena Gabdullin пишет:
в общем нашел я благодаря рдс бару, через хром на сайте у Миши Шакина роботс.тхт, поставлю себе, должен хорошо работать, кому нужен вот он


Параметр User-Agent: * означает что написанные правила доступа действительны для всех поисковых роботов. Поэтому все что идет начиная со строчки User-agent: Yandex и далее - совершенно не нужно. Отдельное правило для Яндекса имело бы смысл, только если бы там были записаны правила индексации папок, отличные от общих правил для остальных поисковиков.
У меня на блогах давно такой robots.txt стоит) smile:cool:
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
22:23 Подскажите нормальный сервис накрутки ПФ 
15:44 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
09:57 3snet - гемблинг, беттинг, форекс, бинарные опционы, майнинг 
19:33 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
15:12 Несколько статей хорошо выдаются в Гугле, но отвратительно в Яндексе 
13:40 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
11:41 2Index - быстрая индексация страниц сайта и обратных ссылок 
22:30 SOCKS5 приватные прокси на 30 дней для PayPal 
22:29 Google Voice аккаунты для бесплатных SMS и звонков 
22:29 PayPal аккаунты для любых целей 
20:15 Belurk — высокоскоростные анонимные прокси от 0,24 рублей 
19:25 Whatsapp рассылки и реселлерская программа 
17:01 Продажа горячих лидов под крипту / Crypto Leads for Sale 
13:17 BIGPROXY.SHOP - Резидентные Ротационные Backconnect Proxy USA EUROPA MIX [Безлимитный трафик] 
16:49 monetizer.agency – рекламная сеть для взрослого и развлекательного трафика. 100$ новому вебмастеру 
20:43 Добро пожаловать в цифровой мир... 
15:59 Про мясо 
23:09 ПП от PMS remote.team - 200$ за команду 
13:28 Компьютерная мышь 
22:55 Ну что, кто куда деваете свои сайты? 
22:34 Используете беспроводные наушники?