Сопли гугла
Страницы: 1
Сопли гугла, Сайт уходит в сопли
Здравствуйте многоуважаемые.
Столкнулся со следующей проблемой.
Сайт Ledyolga.ru
Раньше в гугл нормально влетали все страницы по одной и все были в основной выдаче 100%
Сейчас же появляется куча страниц типа http://ledyolga.ru/razmishlenie_o_zizni/mechty-sbyvayutsya/?replytocom=2163
Запретил их в робот.txt показал этот файл гуглу, в инструментах для вебмастеров показывает что этот файл блокирует эти страницы, но они упорно лезут в индекс, и естественно заслуженно попадают в сопли. А как известно если в соплях большой процент страниц, то и гугл будет плохо к сайту относится. Помогите советом, что ещё можно сделать.
Удаляю а они опять лезут, и количество страниц с каждым днём растёт.
Я в роботсе не так силён, но попробуй чудок изменить.
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Host: www.сайт.ru

User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments

Sitemap: http://сайт.ru/sitemap.xml

И второе - если используешь плагин сео, в нём есть настройки (в платинуме точно) для закрытия от индекса.
Ну и так, мало ли - replytocom=хххх - это ответ на коммент )))) ато вдруг не знаешь...
Я использую этот:
User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /tag/
Disallow: /page/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Disallow: /*?*
Disallow: /*?
Disallow: /tag/*
Sitemap: http://nabolevshee.ru/sitemap.xml

User-agent: Yandex
Disallow: /cgi-bin/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /tag/
Disallow: /page/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Disallow: /*?*
Disallow: /*?
Disallow: /tag/*
Sitemap: http://nabolevshee.ru/sitemap.xml

Вот эта строчка блокирует replytocom=хххх
Disallow: /*?*
Но новые страницы упорно лезут в сопли
У меня похожая проблема на UCOZ. Запретил всё, что можно,в вебмастере Google показывает всё правильно, но в сопли залезло 700 страниц. В основном результаты поиска и т.д. При том, что на сайте всего чуть больше 150 страниц. Понятия не имею, как с этим бороться.
Разместил сайт с 4000 хостов за 115 руб.мес на хостинге BeGet.ru
Ссылки, которые работают
Цитата
mirturs пишет:
У меня похожая проблема на UCOZ. Запретил всё, что можно,в вебмастере Google показывает всё правильно, но в сопли залезло 700 страниц. В основном результаты поиска и т.д. При том, что на сайте всего чуть больше 150 страниц. Понятия не имею, как с этим бороться.
Тоже интересует ответ на этот вопрос. (Что то подобное и у меня)
Изменено: Ckaep - 20 Августа 2014 10:51
Цитата
1andrei1 пишет:
Disallow: /*?*
Насколько видно, эта точка не блокирует комменты.Попробуейте
Disallow:/?*
Гоша неоднозначно воспринимает запрет в роботс.тхт, но подвластен "<META NAME="GOOGLEBOT" CONTENT="NOINDEX, NOFOLLOW">".
Код
User-agent: *
Disallow: /wp-*
Disallow: /feed
User-agent: Yandex
Disallow: /wp-*
Host: сайт.ru/

Sitemap: сайт.ru/sitemap.xml
Вот это самый правильный вариант. Не надо дубли убирать в роботс. Гугл все-равно их найдёт. Все дубли нужно убрать в .htaccess
Можете почитать поподробнее здесь: http://isif-life.ru/blogovedenie/kak-najti-dubli-stranic-na-wordpress-bloge-i-pochemu-vse-nashi-robots-txt-ne-pravilnye.html . Это не реклама сайта, он не мой, просто там реально все подробно описано.
Изменено: Сергей Гончаров - 20 Августа 2014 14:36
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
09:47 Adsense личный опыт 
13:13 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
13:47 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
08:27 Ищу специалистов 
08:18 Прибыль 200$ - 400$, за каждую 1000 уников! Google, FB и тд 
08:12 ру гембла 
09:18 Влияние использования ИИ для написания текстов на позицию в поисковой выдаче 
04:05 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
02:43 Обменный пункт cashalot.one. Выгодный обмен. 
15:30 EGB Affiliates – Зарабатывайте на киберспорте, спорте и казино! 
11:52 BIGPROXY.SHOP - Резидентные Ротационные Backconnect Proxy USA EUROPA MIX [Безлимитный трафик] 
10:06 Услуга чертежника и 3D моделирования 
08:16 Linken Sphere – браузер-антидетект нового поколения 
06:27 Продам аккаунты HeadHunter (Верификация на ИП) 
23:51 Всего п онемногу 
17:09 Точные прогнозы на футбол 
10:00 Ну что, кто куда деваете свои сайты? 
16:22 Компьютерная мышь 
23:55 Добро пожаловать в цифровой мир... 
13:13 О природе путешествий. 
00:15 Накрутка поисковых подсказок