Гугл выдает значительно больше страниц, чем есть на самом деле
Страницы: 1
Гугл выдает значительно больше страниц, чем есть на самом деле, Индексация гугл
Всем доброго дня. Прошу совета у опытных пользователей.

Есть сайт [url]http://open-prezi.ru[/url]  Создан на движке Wordpress. На данный момент на сайте 165 страниц и 6 записей. В sitemap 171 url. По запросу в гугле site:open-prezi.ru находит 661 результат. Панель вебмастера гугл в разделе "Статус индексирования" показывает следующую информацию: Проиндексировано всего 658, просканировано за все время 755, заблокировано в файле robots.txt 219, удалено 365. Мне непонятно,подскажите пожалуйста, откуда эти 658 стр. ? Причем 25 августа было проиндексировано 209 страниц, 1 сентября уже 653, 8 сентября 658. 1 сентября было произведено обновление до версии Wordpress 3.6 - это могло как-то повлиять?

Немного опишу, какие действия производились с сайтом. Был установлен движок с файлом robots.txt, затем спустя время произведена настройка ЧПУ. Но гугл успел проиндексировать страницы без ЧПУ (судя по статистике панели вебмастер 25 августа), затем он также проиндексировал новые урлы. Кстати, страницы без ЧПУ с параметром "?" были запрещены к индексации в robots.txt, но все равно оказались проиндексированы и отображались в выдаче гугла правда с описанием "Описание веб-страницы недоступно из-за ограничений в файле robots.txt" Старые урлы с "page_id" (гугл выдавал примерно 130) также висели в поиске, но при клике по ссылке переход осуществлялся на новый адрес с ЧПУ. Также потом обнаружила, что в поиске выдается много страниц с параметром "feed" (около 150) в url, которые также были запрещены в robots.txt. Эти страницы опять же отображались в поиске с пометкой "Описание веб-страницы недоступно из-за ограничений в файле robots.txt"

Прочитав множество статей в интернете, поудаляла страницы c page_id, feed из результатов поиска через панель вебмастера. Количество страниц в выдаче по запросу site:open-prezi.ru в какой-то момент уменьшилось до 470 (с 680). Но сейчас снова выдает за 6 сотен - 661. При этом массово страниц с page_id и feed я не нахожу, гугл выдает результатов по 7.

Вот скрин раздела Параметры URL в панели вебмастера. [url]http://screen.fst.su/%D0%9D%D0%B0%D1%81%D1%82%D1%8FShot2013-09-09112037.png[/url]
Здесь он показывет, что отслеживает аж 347 урлов с параметром page_id, 159 урлов с параметром feed...
Скрин статистики индексирования [url]http://screen.fst.su/%D0%9D%D0%B0%D1%81%D1%82%D1%8FShot2013-09-09112824.png[/url]
[url]http://screen.fst.su/%D0%9D%D0%B0%D1%81%D1%82%D1%8FShot2013-09-09112928.png[/url]

Подскажите пожалуйста что-нибудь, как все это исправить. Не очень приятно видеть в панели cy-pr видеть такое [url]http://screen.fst.su/%D0%9D%D0%B0%D1%81%D1%82%D1%8FShot2013-09-09113118.png[/url] Получается что гугл видит на сайте множество дублей? Кстати, панель RDS показывает следующее [url]http://screen.fst.su/%D0%9D%D0%B0%D1%81%D1%82%D1%8FShot2013-09-09113211.png[/url]

И еще я абсолютно не понимаю арифметику гугла smile:confused: Сейчас страниц в выдаче по запросу site:open-prezi.ru - 661. Это как-то вяжется с общим кол-вом проиндексированных урлов в панели вебмастера - 658. Но панель веб-мастера ведь показывает, что удалено 365. Значит должно быть 658-365=293 ?
Изменено: Анастасия Владыкина - 9 Сентября 2013 12:06
у гугла несколько сайтов, отсюда и разница между рдс и супром

WMT - статистика, всегда была немного корявая (здесь она немного запаздывает)

От себя скажу - по поводу дублей, если сайт активно наполняется то такой маленький процент это норма, гугл сначала индексирует потом только думает, что оставить а что нет  ))  особенно на молодых сайтах и сайтах где была переделана структура, со временем все станет на свои места
open-prezi.ru/?page_id=796

open-prezi.ru/?page_id=976

и прочее удаляйте в панели вебмастера

Насчет страниц в гугле всегда их больше чем в яндексе, если на сайт не накладывались фильтры (по крайней мере ещё не 1 чтобы было наоборот не встречал)
Вот как нужно делать сайты Bezlimi.com
Я Джин пишет:
Цитата
со временем все станет на свои места
Спасибо за ответ. Т.е. со временем гугл выкинет лишние урлы?
Цитата
DmitryBezlimit пишет:
и прочее удаляйте в панели вебмастера
Да, конечно, сейчас подчищу все

Если еще у кого есть советы, пожалуйста пишите, всему рада smile:)
Цитата
Анастасия Владыкина пишет:
Если еще у кого есть советы, пожалуйста пишите, всему рада
Гугл очень неспешно удаляет дубли (иногда несколько раз приходилось удалять один и тот же урл. А вообще нужно смотреть, какой тип дублей у Вас основной, под него и запрет писать. Ещё бывает, что слишком большой robots Гугл не воспринимает как обязательный к исполнению.
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
20:57 01.02. Апдейт 31.01 // Chrome готовит "чёрную метку" для ИИ? 
14:13 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
13:38 2Index - быстрая индексация страниц сайта и обратных ссылок 
12:44 РСЯ и тормоза сайта: Яндекс начал штрафовать за плохой PageSpeed? 
23:09 Как безопасно купить Гугл почту? 
13:45 Какой движок выбрать для форума? 
13:43 Нашел скрины выплат с Сапы за 2010 год. Пошел плакать 
05:29 Продам обменник криптовалюты, а также новый обменник под ключ с обучением. Скидки на скрипты обменника 
04:20 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
23:26 Sova.gg - надежный обменник криптовалюты. 
19:23 Mixmasters - Exchange without AML and KYC 
15:54 Продам аккаунты Gmail USA IP | Gmail MIX IP | Outlook Old 
14:05 TETChange-Обменник криптовалют 
12:36 Nexulume.com Обменник без AML и KYC 
06:50 Точные прогнозы на футбол 
06:06 Moltbook: Соцсеть для ботов, где людям закрыли рот. Началось? 
02:12 Ставки на супер тренды в спорте 
22:31 [AI] Бот за $600к советовал есть сыр с крысами. Нью-Йорк его (наконец-то) снес 
13:38 Осталось 3-5 месяцев до блокировки YouTube в России, — заявил Клименко 
07:11 Список обновленных тем пуст... 
17:02 Gartner обещал смерть SEO к 2026 году. Открываем метрику и проверяем