SuperDivX,
4/ 25%
4- проиндексировано
25%, т.е. 1 страница участвует в поиске.
4/ 25%
4- проиндексировано
25%, т.е. 1 страница участвует в поиске.
|
#16
23 Ноября 2011 11:38
SuperDivX,
4/ 25% 4- проиндексировано 25%, т.е. 1 страница участвует в поиске. |
|
#17
23 Ноября 2011 12:35
В поиске участвуют все страницы, в основном поиске 1
|
|
#18
23 Ноября 2011 12:42
А что такое основной поиск? И неосновной соответственно? |
|
#19
23 Ноября 2011 12:54
Яндекс выкидывает некачественные страницы из своего индекса, то Гугл просто помещает их в дополнительный индекс, результаты которого показываются после результатов из основного индекса
|
|
#20
25 Ноября 2011 00:03
У меня как раз такая проблема. Когда то была куча дублей, не закрытых от индексации. Сейчас все позакрывал в robots.txt, но 94% страниц с дублями лежат теперь в дополнительном индексе. Есть ли какой нибудь способ удалить их вообще? Сайт www .contact-linza.ru, cy-pr.com сейчас показывает страниц не под фильтрами 854 / 6 %. Можно было бы попробовать удалить их через панель веб-мастеров гугля, но я где то читал, что гугель этого не любит. |
|
#21
26 Ноября 2011 23:05
Хм... а у меня вроде и кликандеров не стоит суровых, а всего
Google / % страниц не под фильтрами 27,200 / 5 % число страниц в фильтре вроде внушающее, а вот почему 5% отображает... p.s. http://golubevod.com.ua/ |
|
#22
26 Ноября 2011 23:11
Руслан,
Вспоминаем математику : 27200/100*5=1360 (5%) У вас: результатов примерно 1 430 27200/100*6=1632 (6%) Поэтому и 5%, до 6% вы еще не дотянули ![]() |
|
#23
26 Ноября 2011 23:24
ахах, логично)) спасибо, не подумал...))..
![]() |
|
#24
26 Ноября 2011 23:32
всем страницам, что не под фильтрами, будет дан ПР. Соответственно - вывод из под фильтров - увеличение ПР всех страниц.
|
|
#25
27 Ноября 2011 22:43
Дык а есть идеи, как удалить страницы из дополнительного индекса? У меня уже 902
![]()
Изменено:
Олег - 27 Ноября 2011 22:57
|
|
#26
28 Ноября 2011 03:40
есть много отличных сайтов у которых почти все страницы под фильтрами,вывод=больше материала
|
|
#27
30 Ноября 2011 10:59
Может под фильтрами страницы ссылок?
|
|
#28
30 Ноября 2011 23:31
Под фильтрами - страницы с дублями, которые плодил движок сайта. Пример:
www. contact-linza.ru/maxima/xxx.html?limitstart=0&50 Эти страницы сейчас запрещены к индексации в robots.txt, сайт по большинству из этих страниц выдает ошибку 404, яндекс их не индексирует, что мне и требуется, а вот гугель поместил их в дополнительный индекс и удалять их оттуда не собирается. Если я правильно понимаю, то для гугля на моем сайте до сих пор остается огромное количество дублей, что по идее влияет на рейтинг сайта. Т.е. вопрос состоит в том, как заставить гугель учитывать запреты robots.txt и как удалить из дополнительного индекса гугля запрещенные к индексации страницы.
Изменено:
Олег - 30 Ноября 2011 23:36
|
|
#29
6 Декабря 2011 16:02
Изменено:
Бобур Турсунов - 6 Декабря 2011 16:05
|
|
#30
6 Декабря 2011 19:39
У меня тоже с Гуглом интересная вещь. На сайте примерно 200 материалов. В профиле показывает ~ 450 заблокированных robots TXT, в индексе 20, НО ! по совету гугла создал страницу со ссылками на материалы. за неделю (хоть и ранее добавлял материалы -цифра не менялась) стало 60, сайту более 2х мес. Гугл пришел на 3-й день, через две недели показал результаты. И еще. Есть 2 сайта на укозе. В одном материалы в модуле статей, т.е как бы на диске вложены в папки. На втором- модуль статей, как бы просто на диске. В одном гугл видит все материалы, даже больше , а в другом- 1-2. С яндексом наоборот.
|
||||
| 16.01.2020 17:41 | Почему у украинцев "стоит" на Москвичей? |
| 04.12.2019 11:21 | Обмен подписчиками на страницах Facebook - бартер |
| 20.11.2019 13:23 | Оформление групп Вконтакте, страниц Facebook, аккаунтов Twitter |
| 04.12.2018 17:30 | Требуется наполнять форум и писать посты на главную страницу |
| 24.10.2017 08:41 | Что лучше - группа или публичная страница в контакте? |