robots.txt Yandex
Страницы: 1
robots.txt Yandex, нид хелп!
Добрый день, Гуру оптимизации!
На сегодня у меня два вопроса: 1., вчера заглянул в "страницы" загруженные яндексом, их у меня почти 3000 зотя на самом деле всего 300 записей. Задался вопросом, откуда? посмотрел загружено feed=rss2& - около 1000 страниц, получается дубляж контента. Нужно ли для Яндекса зарвывать этот РСС канал?
2. В роботс.хтх если закрываю disallow: /archives/ то у меня перестают индексироваться категории или рубрики моего сайта! аля структура оказалась /archives/category/ индексацию проходят и рубрики и архивы...опять дубль! Пощему нащальнике??? что мне теперь делать? Как сделать так чтобы индексировались только категории?
Цитата
Gena Gabdullin пишет:
Добрый день, Гуру оптимизации!
На сегодня у меня два вопроса: 1., вчера заглянул в "страницы" загруженные яндексом, их у меня почти 3000 зотя на самом деле всего 300 записей. Задался вопросом, откуда? посмотрел загружено feed=rss2& - около 1000 страниц, получается дубляж контента. Нужно ли для Яндекса зарвывать этот РСС канал?
2. В роботс.хтх если закрываю disallow: /archives/ то у меня перестают индексироваться категории или рубрики моего сайта! аля структура оказалась /archives/category/ индексацию проходят и рубрики и архивы...опять дубль! Пощему нащальнике??? что мне теперь делать? Как сделать так чтобы индексировались только категории?

конечно нужно,помню как через дубль у моего СДЛ повылетали все старницы, я уже думал что бан, но после устранения дубля и письма платонам стало все нормально)
Цитата
Gena Gabdullin пишет:
Добрый день, Гуру оптимизации!
На сегодня у меня два вопроса: 1., вчера заглянул в "страницы" загруженные яндексом, их у меня почти 3000 зотя на самом деле всего 300 записей. Задался вопросом, откуда? посмотрел загружено feed=rss2& - около 1000 страниц, получается дубляж контента. Нужно ли для Яндекса зарвывать этот РСС канал?
2. В роботс.хтх если закрываю disallow: /archives/ то у меня перестают индексироваться категории или рубрики моего сайта! аля структура оказалась /archives/category/ индексацию проходят и рубрики и архивы...опять дубль! Пощему нащальнике??? что мне теперь делать? Как сделать так чтобы индексировались только категории?

а зачем Вам чтобы индексировались категории и рубрики? smile:) я вообще весь дубль закрыл, т.е. в индексе только "чистые" страницы.
Цитата
deezy пишет:
а зачем Вам чтобы индексировались категории и рубрики? я вообще весь дубль закрыл, т.е. в индексе только "чистые" страницы.


Поделитесь плиз своим роботс.тхт?

Кстати у меня страницы повылетали, думаю может из-за дублей...
в общем нашел я благодаря рдс бару, через хром на сайте у Миши Шакина роботс.тхт, поставлю себе, должен хорошо работать, кому нужен вот он
User-agent: *
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Disallow: /category/*/*
Disallow: /wp-content/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments

User-agent: Yandex
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Disallow: /category/*/*
Disallow: /wp-content/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments
Цитата
Gena Gabdullin пишет:
в общем нашел я благодаря рдс бару, через хром на сайте у Миши Шакина роботс.тхт, поставлю себе, должен хорошо работать, кому нужен вот он


Параметр User-Agent: * означает что написанные правила доступа действительны для всех поисковых роботов. Поэтому все что идет начиная со строчки User-agent: Yandex и далее - совершенно не нужно. Отдельное правило для Яндекса имело бы смысл, только если бы там были записаны правила индексации папок, отличные от общих правил для остальных поисковиков.
У меня на блогах давно такой robots.txt стоит) smile:cool:
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
16:04 LGaming - экосистема и партнерская программа в gambling и betting вертикалях 
11:48 Google - шантажист, а Cloudflare - не спаситель. Как не отлететь в бан 
11:47 Старые кости или свежее мясо? Как нагнуть старичка в серпе за один год 
11:45 10.02 Яндекс штормит, а Google лезет в долги: 15 миллиардов на железки для ИИ 
20:18 ЕС душит ТикТок: прощай бесконечная лента и RPM? Что с монетизацией? 
20:14 Гугл пухнет от кеша, а нам - крошки. Разбор $114 млрд: Адсенс в минусе, Ютуб на подписках 
20:11 01.02. Апдейт 31.01 // Chrome готовит "чёрную метку" для ИИ? 
20:15 Nexulume.com Обменник без AML и KYC 
17:47 Продажа аккаунтов HH.RU 
17:06 - Вечные ссылки с трастовых сайтов 2024 проверен FastTrust 
16:53 Мобильные и Резидентные Прокси Для Соц Сетей | 3 Гб Бесплатно 
12:59 Mixmasters - Exchange without AML and KYC 
09:05 Swapwatch.org — Мониторинг криптовалютных обменников 
08:45 GhostRocket.pro — Взлетаем в новую эру криптообмена! 
23:25 Точные прогнозы на футбол 
21:50 Кулеры и БП станут золотыми? Медь по 13 штук, олово в космосе 
21:25 блокировка youtube 2026: ркн начинает «выдавливание». кто уже пробовал вк видео? 
20:54 Туалетные секреты: Замурчательная тема 
17:44 [AI] Бот за $600к советовал есть сыр с крысами. Нью-Йорк его (наконец-то) снес 
15:24 Сайты Рунета 
15:22 Moltbook: Соцсеть для ботов, где людям закрыли рот. Началось?