Сопли гугла
Страницы: 1
Сопли гугла, Сайт уходит в сопли
Здравствуйте многоуважаемые.
Столкнулся со следующей проблемой.
Сайт Ledyolga.ru
Раньше в гугл нормально влетали все страницы по одной и все были в основной выдаче 100%
Сейчас же появляется куча страниц типа http://ledyolga.ru/razmishlenie_o_zizni/mechty-sbyvayutsya/?replytocom=2163
Запретил их в робот.txt показал этот файл гуглу, в инструментах для вебмастеров показывает что этот файл блокирует эти страницы, но они упорно лезут в индекс, и естественно заслуженно попадают в сопли. А как известно если в соплях большой процент страниц, то и гугл будет плохо к сайту относится. Помогите советом, что ещё можно сделать.
Удаляю а они опять лезут, и количество страниц с каждым днём растёт.

Бесплатная контекстная реклама

Я в роботсе не так силён, но попробуй чудок изменить.
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Host: www.сайт.ru

User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments

Sitemap: http://сайт.ru/sitemap.xml

И второе - если используешь плагин сео, в нём есть настройки (в платинуме точно) для закрытия от индекса.
Ну и так, мало ли - replytocom=хххх - это ответ на коммент )))) ато вдруг не знаешь...
Я использую этот:
User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /tag/
Disallow: /page/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Disallow: /*?*
Disallow: /*?
Disallow: /tag/*
Sitemap: http://nabolevshee.ru/sitemap.xml

User-agent: Yandex
Disallow: /cgi-bin/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /tag/
Disallow: /page/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Disallow: /*?*
Disallow: /*?
Disallow: /tag/*
Sitemap: http://nabolevshee.ru/sitemap.xml

Вот эта строчка блокирует replytocom=хххх
Disallow: /*?*
Но новые страницы упорно лезут в сопли
У меня похожая проблема на UCOZ. Запретил всё, что можно,в вебмастере Google показывает всё правильно, но в сопли залезло 700 страниц. В основном результаты поиска и т.д. При том, что на сайте всего чуть больше 150 страниц. Понятия не имею, как с этим бороться.
Разместил сайт с 4000 хостов за 115 руб.мес на хостинге BeGet.ru
Ссылки, которые работают
Цитата
mirturs пишет:
У меня похожая проблема на UCOZ. Запретил всё, что можно,в вебмастере Google показывает всё правильно, но в сопли залезло 700 страниц. В основном результаты поиска и т.д. При том, что на сайте всего чуть больше 150 страниц. Понятия не имею, как с этим бороться.
Тоже интересует ответ на этот вопрос. (Что то подобное и у меня)
Изменено: Ckaep - 20 Августа 2014 10:51
Цитата
1andrei1 пишет:
Disallow: /*?*
Насколько видно, эта точка не блокирует комменты.Попробуейте
Disallow:/?*
Гоша неоднозначно воспринимает запрет в роботс.тхт, но подвластен "<META NAME="GOOGLEBOT" CONTENT="NOINDEX, NOFOLLOW">".
Код
User-agent: *
Disallow: /wp-*
Disallow: /feed
User-agent: Yandex
Disallow: /wp-*
Host: сайт.ru/

Sitemap: сайт.ru/sitemap.xml
Вот это самый правильный вариант. Не надо дубли убирать в роботс. Гугл все-равно их найдёт. Все дубли нужно убрать в .htaccess
Можете почитать поподробнее здесь: http://isif-life.ru/blogovedenie/kak-najti-dubli-stranic-na-wordpress-bloge-i-pochemu-vse-nashi-robots-txt-ne-pravilnye.html . Это не реклама сайта, он не мой, просто там реально все подробно описано.
Изменено: Сергей Гончаров - 20 Августа 2014 14:36
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
18:47 Апдейт 24 февраля 2017 года 
18:37 Рекламная сеть яндекса личный опыт 
15:30 Вопрос по уникальности контента 
13:12 Нужен ли тег keywords 
12:47 Букварикс: бесплатная программа для быстрого поиска ключевых слов 
11:58 Adsense личный опыт 
11:44 Переход на HTTPS - стоит ли? 
18:48 Куплю аккаунт Adsense Россия 
16:57 20 крутых ссылок всего за 499 рублей! Из них 14 сайтов в ЯК, 6 в DMOZ, средний ТИЦ 225. Только ручное размещение! 
15:33 Статейный прогон, цена 20$ 
15:07 Комплексная раскрутка сайтов. Качественные услуги, прогоны и прочее. (2000+ отзывов) 
12:31 Продам ссылки с игрового сайт Дешево (cs, gta, warface) 
11:26 Услуги по созданию логотипов, баннеров, визиток. Возможны другие предложения работы с графикой. 
10:59 Изготовление Логотипов,Баннеров,Интро видео и многое другое 
18:44 Госзакупки - продления домена за 100 т.р. 
18:15 Один сайт и 3 офиса, работающих за % 
17:33 Пузатовский марафончик нахаляву. 
16:56 Где найти юридические оферы? 
15:21 AMarkets - партнерские программы финансовых рынков 
13:50 Секс появился благодаря вирусам, заявляют ученые 
12:42 Отзывы о SpeedStudio