Почему 86% страниц под фильтрами.
Страницы: Пред. 1 2 3 4 След.
[ Закрыто ] Почему 86% страниц под фильтрами.
SuperDivX,
4/ 25%
4- проиндексировано
25%, т.е. 1 страница участвует в поиске.
В поиске участвуют все страницы, в основном поиске 1
Цитата
RUPak пишет:
В поиске участвуют все страницы, в основном поиске 1

А что такое основной поиск? И неосновной соответственно?
Яндекс выкидывает некачественные страницы из своего индекса, то Гугл просто помещает их в дополнительный индекс, результаты которого показываются после результатов из основного индекса
Цитата
RUPak пишет:
Гугл просто помещает их в дополнительный индекс, результаты которого показываются после результатов из основного индекса

У меня как раз такая проблема. Когда то была куча дублей, не закрытых от индексации. Сейчас все позакрывал в robots.txt, но 94% страниц с дублями лежат теперь в дополнительном индексе. Есть ли какой нибудь способ удалить их вообще? Сайт www .contact-linza.ru, cy-pr.com сейчас показывает страниц не под фильтрами 854 / 6 %.
Можно было бы попробовать удалить их через панель веб-мастеров гугля, но я где то читал, что гугель этого не любит.
Хм... а у меня вроде и кликандеров не стоит суровых, а всего
Google / % страниц не под фильтрами 27,200 / 5 %

число страниц в фильтре вроде внушающее, а вот почему 5% отображает...

p.s. http://golubevod.com.ua/
Руслан,
Вспоминаем математику :
27200/100*5=1360 (5%)

У вас: результатов примерно 1 430

27200/100*6=1632 (6%)

Поэтому и 5%, до 6% вы еще не дотянули smile:sarc:
ахах, логично)) спасибо, не подумал...)).. smile:)
всем страницам, что не под фильтрами, будет дан ПР. Соответственно - вывод из под фильтров - увеличение ПР всех страниц.
заработок с любой посещалкой - теперь 2.25 рубля за клик VK Message!
Хочешь получать 650 руб/д ?регистрируемся в Сапе - не стесняем
Дык а есть идеи, как удалить страницы из дополнительного индекса? У меня уже 902 smile:wall:
Изменено: Олег - 27 Ноября 2011 22:57
есть много отличных сайтов у которых почти все страницы под фильтрами,вывод=больше материала
Может под фильтрами страницы ссылок?
Под фильтрами - страницы с дублями, которые плодил движок сайта. Пример:
www. contact-linza.ru/maxima/xxx.html?limitstart=0&50
Эти страницы сейчас запрещены к индексации в robots.txt, сайт по большинству из этих страниц выдает ошибку 404, яндекс их не индексирует, что мне и требуется, а вот гугель поместил их в дополнительный индекс и удалять их оттуда не собирается. Если я правильно понимаю, то для гугля на моем сайте до сих пор
остается огромное количество дублей, что по идее влияет на рейтинг сайта.
Т.е. вопрос состоит в том, как заставить гугель учитывать запреты robots.txt и как удалить из дополнительного индекса гугля запрещенные к индексации страницы.
Изменено: Олег - 30 Ноября 2011 23:36
Цитата
Олег пишет:
Под фильтрами - страницы с дублями, которые плодил движок сайта. Пример:
www. contact-linza.ru/maxima/xxx.html?limitstart=0&50
Эти страницы сейчас запрещены к индексации в robots.txt, сайт по большинству из этих страниц выдает ошибку 404, яндекс их не индексирует, что мне и требуется, а вот гугель поместил их в дополнительный индекс и удалять их оттуда не собирается. Если я правильно понимаю, то для гугля на моем сайте до сих пор
остается огромное количество дублей, что по идее влияет на рейтинг сайта.
Т.е. вопрос состоит в том, как заставить гугель учитывать запреты robots.txt и как удалить из дополнительного индекса гугля запрещенные к индексации страницы.
у меня тоже такая же проблема: google не хочет не индексировать дубли, которые запрещены в robots.txt , а вот яндекс - то, что надо. вот мой сайт http://encyc-bob.ru , может поймете, в чем дело?
Изменено: Бобур Турсунов - 6 Декабря 2011 16:05
У меня тоже с Гуглом интересная вещь. На сайте примерно 200 материалов. В профиле показывает ~ 450 заблокированных robots TXT, в индексе 20, НО ! по совету гугла создал страницу со ссылками на материалы. за неделю (хоть и ранее добавлял материалы -цифра не менялась) стало 60, сайту более 2х мес. Гугл пришел на 3-й день, через две недели показал результаты. И еще. Есть 2 сайта на укозе. В одном материалы в модуле статей, т.е как бы на диске вложены в папки. На втором- модуль статей, как бы просто на диске. В одном гугл видит все материалы, даже больше , а в другом- 1-2. С яндексом наоборот.
Страницы: Пред. 1 2 3 4 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
13:26 Как безопасно купить Гугл почту? 
11:17 ЕС душит ТикТок: прощай бесконечная лента и RPM? Что с монетизацией? 
11:12 Гугл пухнет от кеша, а нам - крошки. Разбор $114 млрд: Адсенс в минусе, Ютуб на подписках 
11:05 01.02. Апдейт 31.01 // Chrome готовит "чёрную метку" для ИИ? 
10:59 WB и Ozon - новые "русские поисковики"? Яндекс теряет коммерческую выдачу 
09:46 OpenAI и шейхи: Цензура на продажу и "гибкие" идеалы амеров 
01:09 Yahoo Scout: Нейро-привет из склепа. Реальный шанс на траф или мимо? 
08:58 Мониторинг обменников Сrypto-scout.io 
04:09 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
02:31 Профессиональный и грамотный дизайн от DesignCash 
18:27 Nexulume.com Обменник без AML и KYC 
15:45 Mixmasters - Exchange without AML and KYC 
10:22 Swapwatch.org — Мониторинг криптовалютных обменников 
10:19 SwapPix.io - быстрый и безопасный обменник криптовалют. 
14:26 Туалетные секреты: Замурчательная тема 
13:31 FIFA и Assassin’s Creed воруют пароли: В репаки зашили лютый стиллер. Чекаем логи 
10:52 Кулеры и БП станут золотыми? Медь по 13 штук, олово в космосе 
08:50 Гильотина для классиков: Клод доедает физические книги 
05:10 Точные прогнозы на футбол 
18:34 Ставки на супер тренды в спорте 
11:10 Moltbook: Соцсеть для ботов, где людям закрыли рот. Началось?