Почему 86% страниц под фильтрами.
Страницы: Пред. 1 2 3 4 След.
[ Закрыто ] Почему 86% страниц под фильтрами.
SuperDivX,
4/ 25%
4- проиндексировано
25%, т.е. 1 страница участвует в поиске.
В поиске участвуют все страницы, в основном поиске 1
Цитата
RUPak пишет:
В поиске участвуют все страницы, в основном поиске 1

А что такое основной поиск? И неосновной соответственно?
Яндекс выкидывает некачественные страницы из своего индекса, то Гугл просто помещает их в дополнительный индекс, результаты которого показываются после результатов из основного индекса
Цитата
RUPak пишет:
Гугл просто помещает их в дополнительный индекс, результаты которого показываются после результатов из основного индекса

У меня как раз такая проблема. Когда то была куча дублей, не закрытых от индексации. Сейчас все позакрывал в robots.txt, но 94% страниц с дублями лежат теперь в дополнительном индексе. Есть ли какой нибудь способ удалить их вообще? Сайт www .contact-linza.ru, cy-pr.com сейчас показывает страниц не под фильтрами 854 / 6 %.
Можно было бы попробовать удалить их через панель веб-мастеров гугля, но я где то читал, что гугель этого не любит.
Хм... а у меня вроде и кликандеров не стоит суровых, а всего
Google / % страниц не под фильтрами 27,200 / 5 %

число страниц в фильтре вроде внушающее, а вот почему 5% отображает...

p.s. http://golubevod.com.ua/
Руслан,
Вспоминаем математику :
27200/100*5=1360 (5%)

У вас: результатов примерно 1 430

27200/100*6=1632 (6%)

Поэтому и 5%, до 6% вы еще не дотянули smile:sarc:
ахах, логично)) спасибо, не подумал...)).. smile:)
всем страницам, что не под фильтрами, будет дан ПР. Соответственно - вывод из под фильтров - увеличение ПР всех страниц.
заработок с любой посещалкой - теперь 2.25 рубля за клик VK Message!
Хочешь получать 650 руб/д ?регистрируемся в Сапе - не стесняем
Дык а есть идеи, как удалить страницы из дополнительного индекса? У меня уже 902 smile:wall:
Изменено: Олег - 27 Ноября 2011 22:57
есть много отличных сайтов у которых почти все страницы под фильтрами,вывод=больше материала
Может под фильтрами страницы ссылок?
Под фильтрами - страницы с дублями, которые плодил движок сайта. Пример:
www. contact-linza.ru/maxima/xxx.html?limitstart=0&50
Эти страницы сейчас запрещены к индексации в robots.txt, сайт по большинству из этих страниц выдает ошибку 404, яндекс их не индексирует, что мне и требуется, а вот гугель поместил их в дополнительный индекс и удалять их оттуда не собирается. Если я правильно понимаю, то для гугля на моем сайте до сих пор
остается огромное количество дублей, что по идее влияет на рейтинг сайта.
Т.е. вопрос состоит в том, как заставить гугель учитывать запреты robots.txt и как удалить из дополнительного индекса гугля запрещенные к индексации страницы.
Изменено: Олег - 30 Ноября 2011 23:36
Цитата
Олег пишет:
Под фильтрами - страницы с дублями, которые плодил движок сайта. Пример:
www. contact-linza.ru/maxima/xxx.html?limitstart=0&50
Эти страницы сейчас запрещены к индексации в robots.txt, сайт по большинству из этих страниц выдает ошибку 404, яндекс их не индексирует, что мне и требуется, а вот гугель поместил их в дополнительный индекс и удалять их оттуда не собирается. Если я правильно понимаю, то для гугля на моем сайте до сих пор
остается огромное количество дублей, что по идее влияет на рейтинг сайта.
Т.е. вопрос состоит в том, как заставить гугель учитывать запреты robots.txt и как удалить из дополнительного индекса гугля запрещенные к индексации страницы.
у меня тоже такая же проблема: google не хочет не индексировать дубли, которые запрещены в robots.txt , а вот яндекс - то, что надо. вот мой сайт http://encyc-bob.ru , может поймете, в чем дело?
Изменено: Бобур Турсунов - 6 Декабря 2011 16:05
У меня тоже с Гуглом интересная вещь. На сайте примерно 200 материалов. В профиле показывает ~ 450 заблокированных robots TXT, в индексе 20, НО ! по совету гугла создал страницу со ссылками на материалы. за неделю (хоть и ранее добавлял материалы -цифра не менялась) стало 60, сайту более 2х мес. Гугл пришел на 3-й день, через две недели показал результаты. И еще. Есть 2 сайта на укозе. В одном материалы в модуле статей, т.е как бы на диске вложены в папки. На втором- модуль статей, как бы просто на диске. В одном гугл видит все материалы, даже больше , а в другом- 1-2. С яндексом наоборот.
Страницы: Пред. 1 2 3 4 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
22:27 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
12:39 2Index - быстрая индексация страниц сайта и обратных ссылок 
06:17 3snet - гемблинг, беттинг, форекс, бинарные опционы, майнинг 
11:46 SharkBoss - партнёрская программа для монетизации ЛЮБЫХ видов трафика (включая спам). 
23:10 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
21:20 Rotapost прикрыли! Чем пользоваться? 
00:23 Раскрутка форума 
01:11 A-Parser 1.1 - продвинутый парсер поисковых систем, Suggest, PR, DMOZ, Whois, etc 
23:28 Помогите с оценкой стоимости сайта 
18:38 Продажа аккаунтов HH.RU 
13:38 BIGPROXY.SHOP - Резидентные Ротационные Backconnect Proxy USA EUROPA MIX [Безлимитный трафик] 
13:16 PonyBit.ru - обменный пункт PonyBit.ru (Понибит.ру) 
12:46 Мобильные и Резидентные Прокси Для Соц Сетей | 3 Гб Бесплатно 
12:12 CryptoGraph — Анонимный обмен криптовалют без KYC и AML 
13:08 Бесплатный майнинг Tether (USDT) 
10:29 С юмором по жизни! 
16:49 monetizer.agency – рекламная сеть для взрослого и развлекательного трафика. 100$ новому вебмастеру 
20:43 Добро пожаловать в цифровой мир... 
15:59 Про мясо 
23:09 ПП от PMS remote.team - 200$ за команду 
13:28 Компьютерная мышь