Сопли гугла
Страницы: 1
Сопли гугла, Сайт уходит в сопли
Здравствуйте многоуважаемые.
Столкнулся со следующей проблемой.
Сайт Ledyolga.ru
Раньше в гугл нормально влетали все страницы по одной и все были в основной выдаче 100%
Сейчас же появляется куча страниц типа http://ledyolga.ru/razmishlenie_o_zizni/mechty-sbyvayutsya/?replytocom=2163
Запретил их в робот.txt показал этот файл гуглу, в инструментах для вебмастеров показывает что этот файл блокирует эти страницы, но они упорно лезут в индекс, и естественно заслуженно попадают в сопли. А как известно если в соплях большой процент страниц, то и гугл будет плохо к сайту относится. Помогите советом, что ещё можно сделать.
Удаляю а они опять лезут, и количество страниц с каждым днём растёт.

Бесплатная контекстная реклама

Я в роботсе не так силён, но попробуй чудок изменить.
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Host: www.сайт.ru

User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments

Sitemap: http://сайт.ru/sitemap.xml

И второе - если используешь плагин сео, в нём есть настройки (в платинуме точно) для закрытия от индекса.
Ну и так, мало ли - replytocom=хххх - это ответ на коммент )))) ато вдруг не знаешь...
Я использую этот:
User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /tag/
Disallow: /page/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Disallow: /*?*
Disallow: /*?
Disallow: /tag/*
Sitemap: http://nabolevshee.ru/sitemap.xml

User-agent: Yandex
Disallow: /cgi-bin/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /tag/
Disallow: /page/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Disallow: /*?*
Disallow: /*?
Disallow: /tag/*
Sitemap: http://nabolevshee.ru/sitemap.xml

Вот эта строчка блокирует replytocom=хххх
Disallow: /*?*
Но новые страницы упорно лезут в сопли
У меня похожая проблема на UCOZ. Запретил всё, что можно,в вебмастере Google показывает всё правильно, но в сопли залезло 700 страниц. В основном результаты поиска и т.д. При том, что на сайте всего чуть больше 150 страниц. Понятия не имею, как с этим бороться.
Разместил сайт с 4000 хостов за 115 руб.мес на хостинге BeGet.ru
Ссылки, которые работают
Цитата
mirturs пишет:
У меня похожая проблема на UCOZ. Запретил всё, что можно,в вебмастере Google показывает всё правильно, но в сопли залезло 700 страниц. В основном результаты поиска и т.д. При том, что на сайте всего чуть больше 150 страниц. Понятия не имею, как с этим бороться.
Тоже интересует ответ на этот вопрос. (Что то подобное и у меня)
Изменено: Ckaep - 20 Августа 2014 10:51
Цитата
1andrei1 пишет:
Disallow: /*?*
Насколько видно, эта точка не блокирует комменты.Попробуейте
Disallow:/?*
Гоша неоднозначно воспринимает запрет в роботс.тхт, но подвластен "<META NAME="GOOGLEBOT" CONTENT="NOINDEX, NOFOLLOW">".
Код
User-agent: *
Disallow: /wp-*
Disallow: /feed
User-agent: Yandex
Disallow: /wp-*
Host: сайт.ru/

Sitemap: сайт.ru/sitemap.xml
Вот это самый правильный вариант. Не надо дубли убирать в роботс. Гугл все-равно их найдёт. Все дубли нужно убрать в .htaccess
Можете почитать поподробнее здесь: http://isif-life.ru/blogovedenie/kak-najti-dubli-stranic-na-wordpress-bloge-i-pochemu-vse-nashi-robots-txt-ne-pravilnye.html . Это не реклама сайта, он не мой, просто там реально все подробно описано.
Изменено: Сергей Гончаров - 20 Августа 2014 14:36
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
16:47 Viewport почему то не срабатывает на iphone 
16:18 AffiliateCube 3.0 - усовершенствованная платформа 
15:59 Апдейт 19 февраля 2017 года 
15:59 Яндекс ВМ выдал Дорвеи 
15:52 Нужен совет более опытных вебмастеров, по продвижению сайта кино тематики! 
14:13 Сайт упал в позициях яндекса 
12:42 Как влияют исходящие ссылки с сайта на сторонние ресурсы? 
16:47 Дизайн баннеров 
16:44 Дизайн сайтов и логотипов 
15:50 Мужской журнал 
15:48 Бесплатный SEO-Аудит. Получи 3 полных отчета по сайту! 
15:34 готов писать уникальные тексты, отзывы, берусь за любую работу 
15:23 Комплексный прогон сайтов, нет каталогов от shtaketo, хороший рост позиций + Тиц 30 - 100 
12:46 Статейное продвижение ваших сайтов 
13:56 "Почта России" выявила мошенников, отправлявших клиентам кирпичи вместо компьютеров 
11:12 Роскомнадзор поинтересовался посещаемостью Google News и "Яндекс.Новостей" 
10:59 Robots.txt для html сайта 
09:07 СМИ: регуляторы ЕС обеспокоены настройками конфиденциальности Windows 10 
08:51 Ребят помогите настроить title убрать лишнее 
01:24 Ваш пост/реклама вконтакте 
00:49 Где можно разместить ссылку на группу