Почему 86% страниц под фильтрами.
Страницы: Пред. 1 2 3 4 След.
[ Закрыто ] Почему 86% страниц под фильтрами.
SuperDivX,
4/ 25%
4- проиндексировано
25%, т.е. 1 страница участвует в поиске.
В поиске участвуют все страницы, в основном поиске 1
Цитата
RUPak пишет:
В поиске участвуют все страницы, в основном поиске 1

А что такое основной поиск? И неосновной соответственно?
Яндекс выкидывает некачественные страницы из своего индекса, то Гугл просто помещает их в дополнительный индекс, результаты которого показываются после результатов из основного индекса
Цитата
RUPak пишет:
Гугл просто помещает их в дополнительный индекс, результаты которого показываются после результатов из основного индекса

У меня как раз такая проблема. Когда то была куча дублей, не закрытых от индексации. Сейчас все позакрывал в robots.txt, но 94% страниц с дублями лежат теперь в дополнительном индексе. Есть ли какой нибудь способ удалить их вообще? Сайт www .contact-linza.ru, cy-pr.com сейчас показывает страниц не под фильтрами 854 / 6 %.
Можно было бы попробовать удалить их через панель веб-мастеров гугля, но я где то читал, что гугель этого не любит.
Хм... а у меня вроде и кликандеров не стоит суровых, а всего
Google / % страниц не под фильтрами 27,200 / 5 %

число страниц в фильтре вроде внушающее, а вот почему 5% отображает...

p.s. http://golubevod.com.ua/
Руслан,
Вспоминаем математику :
27200/100*5=1360 (5%)

У вас: результатов примерно 1 430

27200/100*6=1632 (6%)

Поэтому и 5%, до 6% вы еще не дотянули smile:sarc:
ахах, логично)) спасибо, не подумал...)).. smile:)
всем страницам, что не под фильтрами, будет дан ПР. Соответственно - вывод из под фильтров - увеличение ПР всех страниц.
заработок с любой посещалкой - теперь 2.25 рубля за клик VK Message!
Хочешь получать 650 руб/д ?регистрируемся в Сапе - не стесняем
Дык а есть идеи, как удалить страницы из дополнительного индекса? У меня уже 902 smile:wall:
Изменено: Олег - 27 Ноября 2011 22:57
есть много отличных сайтов у которых почти все страницы под фильтрами,вывод=больше материала
Может под фильтрами страницы ссылок?
Под фильтрами - страницы с дублями, которые плодил движок сайта. Пример:
www. contact-linza.ru/maxima/xxx.html?limitstart=0&50
Эти страницы сейчас запрещены к индексации в robots.txt, сайт по большинству из этих страниц выдает ошибку 404, яндекс их не индексирует, что мне и требуется, а вот гугель поместил их в дополнительный индекс и удалять их оттуда не собирается. Если я правильно понимаю, то для гугля на моем сайте до сих пор
остается огромное количество дублей, что по идее влияет на рейтинг сайта.
Т.е. вопрос состоит в том, как заставить гугель учитывать запреты robots.txt и как удалить из дополнительного индекса гугля запрещенные к индексации страницы.
Изменено: Олег - 30 Ноября 2011 23:36
Цитата
Олег пишет:
Под фильтрами - страницы с дублями, которые плодил движок сайта. Пример:
www. contact-linza.ru/maxima/xxx.html?limitstart=0&50
Эти страницы сейчас запрещены к индексации в robots.txt, сайт по большинству из этих страниц выдает ошибку 404, яндекс их не индексирует, что мне и требуется, а вот гугель поместил их в дополнительный индекс и удалять их оттуда не собирается. Если я правильно понимаю, то для гугля на моем сайте до сих пор
остается огромное количество дублей, что по идее влияет на рейтинг сайта.
Т.е. вопрос состоит в том, как заставить гугель учитывать запреты robots.txt и как удалить из дополнительного индекса гугля запрещенные к индексации страницы.
у меня тоже такая же проблема: google не хочет не индексировать дубли, которые запрещены в robots.txt , а вот яндекс - то, что надо. вот мой сайт http://encyc-bob.ru , может поймете, в чем дело?
Изменено: Бобур Турсунов - 6 Декабря 2011 16:05
У меня тоже с Гуглом интересная вещь. На сайте примерно 200 материалов. В профиле показывает ~ 450 заблокированных robots TXT, в индексе 20, НО ! по совету гугла создал страницу со ссылками на материалы. за неделю (хоть и ранее добавлял материалы -цифра не менялась) стало 60, сайту более 2х мес. Гугл пришел на 3-й день, через две недели показал результаты. И еще. Есть 2 сайта на укозе. В одном материалы в модуле статей, т.е как бы на диске вложены в папки. На втором- модуль статей, как бы просто на диске. В одном гугл видит все материалы, даже больше , а в другом- 1-2. С яндексом наоборот.
Страницы: Пред. 1 2 3 4 След.
Похожие темы:
Читают тему (гостей: 2, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
23:27 Биржи ссылок в 2026 - реально ли новичку с одним сайтом поднять копейку? 
23:24 Яндекс Нейро и выдача в 2026 - остались ли лазейки для маленьких сайтов? 
23:05 Раскрутка форума 
23:01 Очередной взлом через плагин. Хакеры получают админку без пароля 
20:41 adsense в 2026: кто реально выводит копейку через киргизию? 
10:50 Альтернативы Адсенсу в 2026 - есть живые? 
10:04 Как поймать партнера на «сливе» бренда? 
22:47 1obmen.net - обмен криптовалют: выплаты в USD, EUR, GBP, CAD, CNY 
15:33 GhostRocket.pro — Взлетаем в новую эру криптообмена! 
14:36 Продам жирный аккаунт fl.ru 
14:07 Продам аккаунты Gmail USA IP | Gmail MIX IP | Outlook Old 
12:54 Mixmasters - Exchange without AML and KYC 
12:31 Сервис ReCaptcha 2, 30р за 1000 решений. 
12:08 Продвижение YouTube видео в топ поиска | Любой тип контента | Гарантия результата 
19:01 8 марта: желаю аптайма 99.9% и e-e-a-t без локов 
18:51 Огородники 
16:47 Какой фильм вы любите посмотреть перед сном? 
15:46 молодильные яблоки и живая вода 
10:11 О природе путешествий. 
01:47 Точные прогнозы на футбол 
15:04 Сайты Рунета