Сопли гугла
Страницы: 1
Сопли гугла, Сайт уходит в сопли
Здравствуйте многоуважаемые.
Столкнулся со следующей проблемой.
Сайт Ledyolga.ru
Раньше в гугл нормально влетали все страницы по одной и все были в основной выдаче 100%
Сейчас же появляется куча страниц типа http://ledyolga.ru/razmishlenie_o_zizni/mechty-sbyvayutsya/?replytocom=2163
Запретил их в робот.txt показал этот файл гуглу, в инструментах для вебмастеров показывает что этот файл блокирует эти страницы, но они упорно лезут в индекс, и естественно заслуженно попадают в сопли. А как известно если в соплях большой процент страниц, то и гугл будет плохо к сайту относится. Помогите советом, что ещё можно сделать.
Удаляю а они опять лезут, и количество страниц с каждым днём растёт.
Я в роботсе не так силён, но попробуй чудок изменить.
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Host: www.сайт.ru

User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments

Sitemap: http://сайт.ru/sitemap.xml

И второе - если используешь плагин сео, в нём есть настройки (в платинуме точно) для закрытия от индекса.
Ну и так, мало ли - replytocom=хххх - это ответ на коммент )))) ато вдруг не знаешь...
Я использую этот:
User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /tag/
Disallow: /page/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Disallow: /*?*
Disallow: /*?
Disallow: /tag/*
Sitemap: http://nabolevshee.ru/sitemap.xml

User-agent: Yandex
Disallow: /cgi-bin/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /tag/
Disallow: /page/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Disallow: /*?*
Disallow: /*?
Disallow: /tag/*
Sitemap: http://nabolevshee.ru/sitemap.xml

Вот эта строчка блокирует replytocom=хххх
Disallow: /*?*
Но новые страницы упорно лезут в сопли
У меня похожая проблема на UCOZ. Запретил всё, что можно,в вебмастере Google показывает всё правильно, но в сопли залезло 700 страниц. В основном результаты поиска и т.д. При том, что на сайте всего чуть больше 150 страниц. Понятия не имею, как с этим бороться.
Разместил сайт с 4000 хостов за 115 руб.мес на хостинге BeGet.ru
Ссылки, которые работают
Цитата
mirturs пишет:
У меня похожая проблема на UCOZ. Запретил всё, что можно,в вебмастере Google показывает всё правильно, но в сопли залезло 700 страниц. В основном результаты поиска и т.д. При том, что на сайте всего чуть больше 150 страниц. Понятия не имею, как с этим бороться.
Тоже интересует ответ на этот вопрос. (Что то подобное и у меня)
Изменено: Ckaep - 20 Августа 2014 10:51
Цитата
1andrei1 пишет:
Disallow: /*?*
Насколько видно, эта точка не блокирует комменты.Попробуейте
Disallow:/?*
Гоша неоднозначно воспринимает запрет в роботс.тхт, но подвластен "<META NAME="GOOGLEBOT" CONTENT="NOINDEX, NOFOLLOW">".
Код
User-agent: *
Disallow: /wp-*
Disallow: /feed
User-agent: Yandex
Disallow: /wp-*
Host: сайт.ru/

Sitemap: сайт.ru/sitemap.xml
Вот это самый правильный вариант. Не надо дубли убирать в роботс. Гугл все-равно их найдёт. Все дубли нужно убрать в .htaccess
Можете почитать поподробнее здесь: http://isif-life.ru/blogovedenie/kak-najti-dubli-stranic-na-wordpress-bloge-i-pochemu-vse-nashi-robots-txt-ne-pravilnye.html . Это не реклама сайта, он не мой, просто там реально все подробно описано.
Изменено: Сергей Гончаров - 20 Августа 2014 14:36
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
16:18 XRumer 23 StrongAI 
09:59 Ошибка после размещения кода HTML! 
21:44 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
15:34 Adtrafico - Правильная партнёрская сеть под бурж трафик 
14:43 Партнерская программа OWNR WALLET 
13:47 DreamCash.tl - заработок на онлайн-видео. До 95% отчислений, отличный конверт! 
21:08 Влияет ли кодировка на индексацию позиции в поиске? 
15:28 Ural-obmen.ru — выгодный сервис обмена 
15:09 Obama.ru - безопасный обмен криптовалют и электронных денежных средств 
13:14 A-Parser 1.1 - продвинутый парсер поисковых систем, Suggest, PR, DMOZ, Whois, etc 
11:51 Европейский эквайринг 
11:19 BestChange – обменивать электронную валюту можно быстро и выгодно 
06:19 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
14:29 Мобильные и Резидентные Прокси Для Соц Сетей | 3 Гб Бесплатно 
14:41 Бесплатный мини-аудит юзабилити и конверсии + технический SEO-аудит в подарок 
11:15 Каспкрски ОС 
04:10 Точные прогнозы на футбол 
15:24 Добро пожаловать в цифровой мир... 
22:58 У меня дикая просадка по РСЯ за последние 3 суток 
21:51 Linux - это максимальная свобода 
21:33 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди