Сопли гугла
Страницы: 1
Сопли гугла, Сайт уходит в сопли
Здравствуйте многоуважаемые.
Столкнулся со следующей проблемой.
Сайт Ledyolga.ru
Раньше в гугл нормально влетали все страницы по одной и все были в основной выдаче 100%
Сейчас же появляется куча страниц типа http://ledyolga.ru/razmishlenie_o_zizni/mechty-sbyvayutsya/?replytocom=2163
Запретил их в робот.txt показал этот файл гуглу, в инструментах для вебмастеров показывает что этот файл блокирует эти страницы, но они упорно лезут в индекс, и естественно заслуженно попадают в сопли. А как известно если в соплях большой процент страниц, то и гугл будет плохо к сайту относится. Помогите советом, что ещё можно сделать.
Удаляю а они опять лезут, и количество страниц с каждым днём растёт.

Прогон по твиттеру, постинг в 1500 аккунтов
Постинг в твиттер аккаунты, для ускорения индексации ваших сайтов, сателлитов, дорвеев.

Я в роботсе не так силён, но попробуй чудок изменить.
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Host: www.сайт.ru

User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments

Sitemap: http://сайт.ru/sitemap.xml

И второе - если используешь плагин сео, в нём есть настройки (в платинуме точно) для закрытия от индекса.
Ну и так, мало ли - replytocom=хххх - это ответ на коммент )))) ато вдруг не знаешь...
Я использую этот:
User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /tag/
Disallow: /page/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Disallow: /*?*
Disallow: /*?
Disallow: /tag/*
Sitemap: http://nabolevshee.ru/sitemap.xml

User-agent: Yandex
Disallow: /cgi-bin/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /tag/
Disallow: /page/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Disallow: /*?*
Disallow: /*?
Disallow: /tag/*
Sitemap: http://nabolevshee.ru/sitemap.xml

Вот эта строчка блокирует replytocom=хххх
Disallow: /*?*
Но новые страницы упорно лезут в сопли
У меня похожая проблема на UCOZ. Запретил всё, что можно,в вебмастере Google показывает всё правильно, но в сопли залезло 700 страниц. В основном результаты поиска и т.д. При том, что на сайте всего чуть больше 150 страниц. Понятия не имею, как с этим бороться.
Разместил сайт с 4000 хостов за 115 руб.мес на хостинге BeGet.ru
Ссылки, которые работают
Цитата
mirturs пишет:
У меня похожая проблема на UCOZ. Запретил всё, что можно,в вебмастере Google показывает всё правильно, но в сопли залезло 700 страниц. В основном результаты поиска и т.д. При том, что на сайте всего чуть больше 150 страниц. Понятия не имею, как с этим бороться.
Тоже интересует ответ на этот вопрос. (Что то подобное и у меня)
Изменено: Ckaep - 20 Августа 2014 10:51
Цитата
1andrei1 пишет:
Disallow: /*?*
Насколько видно, эта точка не блокирует комменты.Попробуейте
Disallow:/?*
Гоша неоднозначно воспринимает запрет в роботс.тхт, но подвластен "<META NAME="GOOGLEBOT" CONTENT="NOINDEX, NOFOLLOW">".
Код
User-agent: *
Disallow: /wp-*
Disallow: /feed
User-agent: Yandex
Disallow: /wp-*
Host: сайт.ru/

Sitemap: сайт.ru/sitemap.xml
Вот это самый правильный вариант. Не надо дубли убирать в роботс. Гугл все-равно их найдёт. Все дубли нужно убрать в .htaccess
Можете почитать поподробнее здесь: http://isif-life.ru/blogovedenie/kak-najti-dubli-stranic-na-wordpress-bloge-i-pochemu-vse-nashi-robots-txt-ne-pravilnye.html . Это не реклама сайта, он не мой, просто там реально все подробно описано.
Изменено: Сергей Гончаров - 20 Августа 2014 14:36
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
10:27 Помогите разобраться 
10:25 Яндекс тИЦ 03.12.2016 
10:19 Апдейт Яндекса 04.12.2016 
07:09 Регистрация на новом сайте 
07:04 Переход на HTTPS - стоит ли? 
06:58 Ошибка в пагинации 
05:22 Апдейт Яндекса 03.12.2016 
10:28 Берусь за работу любой сложности: копирайт, рерайт, перевод, SEO!!! 
10:18 Размещение статьи на идеальном доноре. Чектраст 100, xtool 10 
10:13 3 совета по Юзабилити и Конверсии / SEO аудит 
10:09 Нужна Правка скрипта шаблона в полной новости сайта Ucoz 
09:55 Majento PositionMeter - Быстрое сканирование Яндекс и Google 
09:17 Легко! Качественно! Доступно! Профессионально пишу и размножаю тексты 
08:44 Копирайт и SEO-копирайт - всё будет all right 
10:33 Браузерные супер игры - существуют ли? 
07:21 Непонятки с адсенс 
02:34 Монетизация 2016-2017 
02:25 Книга "Просветление за полчаса" 
01:59 По понедельникам одна бесплатная статья до 3 000 символов за отзыв 
00:41 Новогодний стол в канун Новогодних праздников 
22:15 «Угадай дату апдейта тИЦ» — получи Xneolinks + 500 рублей!