Фильтры Google
Фильтры GoogleКак у любой поисковой системы, у Google есть система фильтрации своей выдачи. Большой процент сайтов в интернете создано не для людей, а для перенаправления трафика на другие сайты, для влияния на поисковую выдачу и т. п., следовательно, чтобы выдача поисковика была чистой, этот мусор нужно тщательно отфильтровывать. Отфильтровывать таким образом, чтобы не пострадали нормальные сайты. А ведь нет четких критериев "нормальности", поэтому проблема фильтрации является сложной, и она до сих пор окончательно не решена. Под фильтры часто попадают "белые и пушистые" сайты, и причины этого попадания определить бывает очень сложно.

Анализируя информацию о фильтрах (а можно анализировать лишь мнения вебмастеров, так как сам Гугл не выкладывает практически никакой информации о своих поисковых технологиях), отчетливо видно, что названий фильтров множество, но все они сводятся практически к одному – раскручивай честно, и с сайтом будет все хорошо. Поэтому нет смысла определять с высокой точностью, как называется наложенный на сайт фильтр. Способы выхода из-под них примерно одинаковы, а знание названия ничего не изменит.

1. Sandbox, песочница. Фильтр, с которым сталкивается большинство молодых сайтов. Проявляется в том, что первые месяцы работы сайта он принципиально не может занять первые места в выдаче, как его ни раскручивай. Песочница – это не санкция, это определенный испытательный период для молодых сайтов. Причиной его введения, скорее всего, послужило желание отсеять короткоживущие дорвеи и не допустить их присутствия на лидирующих позициях в результатах поиска. До введения песочницы некоторым дорвеям достаточно было пробыть на первых местах в поиске буквально несколько суток или даже часов, чтобы принести существенную прибыль владельцу. А если таких сайтов много?

Пока сайт находится в песочнице, над ним нужно работать, чтобы после снятия фильтра он сразу занял хорошие позиции. Многие почему-то просто вешают на домен заглушку и ждут, но в этом нет смысла.

Есть мнение, что песочницы не существует, и ее эффект – это следствие действия комплекса других фильтров, например, прямого влияния возраста домена или траста. Так это или нет совершенно не важно, так как эффект вполне очевиден, и его можно назвать отдельным фильтром. Иногда отдельно выделяют фильтр для молодых доменов.

Песочница грозит лишь англоязычным сайтам. Избежать песочницы или сократить срок пребывания в ней можно несколькими способами. Впрочем, ни один из них не дает никакой гарантии:

- регулярно наращивать качественную (по возможности, естественную) ссылочную массу;

- изначально купить старый домен, на котором уже был возрастной трастовый сайт;

- регулярно обновлять сайт качественным уникальным контентом, отдавать его по rss. Заниматься копированием текстов в других сайтов не следует;

- закрыть от индексации все лишние служебные страницы сайта, оставив лишь то, что нужно и полезно посетителям;

- не использовать излишнюю текстовую оптимизацию.

2. Фильтр "минус 30". Фильтр против тех, кто слишком активно и агрессивно продвигает свой сайт. Он не призван полностью выбросить сайт из поиска, а создан, скорее, для того, чтобы намекнуть хозяевам сайта на недопустимость спамерских методов продвижения. Причинами его наложения могут быть:

- стремительный рост ссылочной массы, особенно если эти ссылки стоят с "мусорных" ресурсов – немодерируемых каталогов, гостевых книг, комментариев в блогах, форумов и т. п. Поэтому не стоит активно пользоваться системами автоматической регистрации сайта в подобных сервисах.

- наличие на сайте "ссылочных помоек" - больших, плохо модерируемых каталогов ссылок, блоков рекламных ссылок на страницах, статей, опубликованных специально для размещения рекламы.

- использование в раскрутке клоакинга. Клоакинг – выдача разного содержимого пользователям и роботам поисковой системы. Посетителям показываются читаемые информативные материалы, роботам – оптимизированные страницы для повышения поисковых позиций.

- использование редиректа при помощи java script. Следует использовать только серверные редиректы (301, 302). Конечно же, не любой java script приводит к этому фильтру, как многие считают.

Избавиться от фильтра можно избавившись от вышеуказанных методов продвижения и не используя их в дальнейшем. Удалив ссылочные помойки и почистив ссылочную массу, вы снимете фильтр с сайта.

3. Google Bombing. Остановка роста позиций по конкретному ключевому слову. Причина – быстрый рост ссылок с одинаковым анкором. Целесообразность его достаточно сомнительная, особенно касаемо некоммерческих запросов. Устранить его можно, например, разбавив ссылочную массу анкорами с текстовым окружением, да и вообще усилить ее трастовыми ссылками.

Причиной введения данного фильтра был собственно "гуглбомбинг" - массовая закупка ссылок (зачастую многими людьми) с одним текстом на определенный сайт затем, чтобы продвинуть его по какому-то абсурдному запросу. Классический пример – первое место у сайта Макдональдса по запросу "ближайший общественный туалет" или у сайта Дмитрия Медведева по запросу "злобный карлик". Делалось это или просто ради шутки, или для того, чтобы навредить конкуренту или же просто в качестве вирусного маркетинга. Гуглбомбинг - следствие алгоритма ссылочного ранжирования, который, при наличии мощной ссылочной массы, практически не учитывает текстовое наполнение продвигаемой страницы. Впрочем, с введением этого фильтра избавиться от данного явления полностью не удалось.

4. Google Florida. Классический вариант пессимизации сайта – резкого падения позиций по всем продвигаемым запросам и, как следствие, падение трафика на несколько порядков. Накладывается за излишнюю оптимизацию страниц – перенасыщенность текста ключевыми словами, излишнее их наличие в тегах title, h1-h6, спамные мета-теги; по большому счету, за те действия владельца сайта, которые направлены на его продвижение, а не на улучшение с точки зрения пользовательского удобства. Фильтр работает не постоянно, а периодически; накладывается, в основном, на сайты, продвигаемые по коммерческим запросам. Это привело к тому, в частности, что на первых местах по многим поисковым запросам, даже по самым дорогим с точки зрения раскрутки, на первых местах находятся информационные или образовательные сайты, а не ресурсы, вкладывающие в продвижение большие деньги.

5. Supplemental Results. Дополнительные результаты поиска ("сопли"), то, что показывается после клика по ссылке "повторить поиск, включив опущенные результаты". Главная причина этого – неуникальность во всех пониманиях этого слова, в том числе в рамках одного сайта, дублирование информации. Одинаковые по структуре и, тем более, по содержимому страницы попадают в дополнительные результаты. В зарубежном интернете многие оценивают сайты именно по проценту содержания страниц в основной выдаче Гугла. Если этот процент ниже 30-40, то сайт считается неуникальным и не очень качественным. К наложению этого фильтра могут привести плохо настроенные CMS, которые генерируют много дублирующих страниц, а также страниц, не несущих полезной информации пользователям. Такие страницы, естественно, либо вообще фильтруются, либо попадают в supplemental.

Для того чтобы избежать выпадения страниц в дополнительные результаты, следует, в первую очередь, использовать качественный уникальный контент. Во-вторых, нужно по максимуму исключить дублирование текстов в рамках своего сайта, закрыть от индексации все дубли. Этот фильтр зависит от запроса; по одному запросу страница может быть в основном поиске, по другому – в дополнительных результатах.

Вывести страницу из-под этого фильтра можно таким образом:

- покупка на нее трастовых ссылок;

- уникализация title и мета-тегов;

- увеличение количества на ней уникального контента;

- уменьшение "битых" ссылок на сайте и, как следствие, страниц, выдающих ошибку 404;

- правильная настройка движка сайта.

6. Фильтр на неуникальный контент. Быть может, не стоит выделять его как отдельное явление, но уж очень это массово. Страница, не содержащая уникального контента, попадет на первые позиции разве что заполучив огромную и трастовую ссылочную массу, да и то через долгое время. Из множества страниц, содержащих одинаковый текст, Гугл выбирает лишь несколько, которые и выдает в основной выдаче.

7. Фильтр на нерабочие ссылки. Позиции сайта могут понижаться, если на нем содержится много битых ссылок и 404-страниц. Избавиться от него можно, соответственно, избавившись от таких ошибок.

8. Фильтр на долго загружающиеся сайты. Если роботы Гугла не получают быстрый отклик от сервера, позиции сайта понижаются вплоть до полного исключения их из поискового индекса. Несколько лет назад от этого фильтра можно было эффективно избавиться, уменьшив размер страниц и изображений, находящихся на них. Сейчас же, когда интернет стал скоростным, и страница, даже занимающая несколько мегабайт, загружается очень быстро, причины подобных задержек могут заключаться в другом. Например, в неправильно настроенных скриптах или сервере. Поэтому копать надо глубже, в том числе выяснить у хостера, не ограничивается ли доступ к сайту для роботов поисковых систем.

9. Фильтр цитирования (Co-citation Linking Filter). Суть этого фильтра сводится к тому, что ссылаться надо только на качественные сайты, которые, в свою очередь ссылаются тоже на нормальные ресурсы. Естественно, проследить всю цепочку ссылок невозможно, соответственно, следует исходить из того, что, ставя на своем сайте ссылку на другой, вы рекомендуете его посещение своим посетителям. А если рекомендуются плохие сайты, Гугл делает вывод о том, что сам сайт тоже является некачественным и таким, который не заботится о своих пользователях.

Фильтр может накладываться на сайты, продающие ссылки или места под статьи в автоматическом режиме, и владельцы которых не особо тщательно фильтруют поступающие рекламные материалы.

10. Фильтр ссылочных помоек. К нему может привести активное участие в системах автоматического обмена ссылками и появление на сайте большого количества страниц, содержащих исключительно ссылки. Обмен ссылками должен быть ручным, меняться нужно только с ограниченным числом качественных сайтов. И первичным на самом сайте должен быть именно его информационное наполнение, а не каталоги ссылок, играющие вспомогательную роль.

11. Фильтр взаимных ссылок. Массовый взаимный обмен, с точки зрения Гугла, это плохо. Поэтому следует использовать более сложные схемы обмена ссылками, например, когда первый сайт ссылается на второй, второй на третий, а третий на первый. Есть и более запутанные схемы обхода фильтра.

12. Фильтр быстрого прироста контента. Если сайт обновляется слишком часто и активно, Гугл может заподозрить его в использовании генераторов или парсеров контента и, следовательно, понизить его позиции или исключить из выдачи. Поэтому при использовании подобных генераторов стоит поставить ограничение на количество добавляемого материала за определенный период времени.

13. Google Bowling. Фильтр, существование которого подвергается сомнению. Суть его заключается в том, что он отслеживает сайты, занимающиеся нечестной конкурентной борьбой с целью загнать своих конкурентов под фильтры Гугла, например, массово закупая некачественные ссылки или рассылая спам.

14. Trust Rank. Степень доверия Гугла к конкретному сайту. Собственно фильтром траст не является, но сайту с более высоким показателем проще будет достичь высоких позиций. На него влияет фактически все то, что делает сайт интересным пользователям, в том числе и возраст сайта, который может говорить о серьезности намерений вебмастера.

Надо помнить одно. Качественному сайту, который делается для людей, который регулярно обновляется качественной и интересной информацией, на которой появляются естественные ссылки, большинство фильтров не грозит.


15 Октября 2010
Количество показов: 34161
Автор:  Сергей Коломиец
Комментарии:  26

Возврат к списку


(Голосов: 84, Рейтинг: 4.34)

Комментарии пользователей:


Страницы: 1 2 След.
Simbasmoby Simbasmoby
я не могу понять, а что Google / % страниц не под фильтрами этот показатель меняется каждый день? при этом один день он показывает 23000 страниц из них 61% не по фильтрами, а на следующий день 19900 страниц и 3% не под фильтрами, еще через день 20000 и 4% не под фильтрами.
Что это вообще?
BestFriends
Как выйти из фильтра если сайт уже давно под фильтром? smile:(
PS2012
Статья интересная и полезная. Но заморачиваться и зацикливаться на показателях типа: Google / % страниц не под фильтрами 1030 / 3 % не стоит. Сайт с аналогичными показателями www.pompaall.ru отлично выдаётся как Google, так и в др. поисковиках.
Любовь Молчанова
Подскажите, пожалуйста, мне предлагает обменяться ссылками сайт, у которого, из 58,000 1% не под фильтрами. А у меня - 100%. Обмениваться с ним ссылками, или нет? Посоветуйте...
Геннадий Шевчук
Google / % страниц не под фильтрами 72 / 68 %   я так  понимаю 72 страницы проиндексированы  из них 62% т.е 45 страниц не под фильтрами. Я правильно понимаю???
flexitank
Фильтры Google- 5!
Andrey Goncharov
Цитата
Ramil Suleymanov пишет:
Цитата
Andrey Goncharov пишет:
То есть чем больше процент страниц не под фильтрами тем лучше?

Как бы да ,но зацикливаться на этом не нужно, если все делать правильно и качественно , то там фильтров не будет, те странички ,которые заведемо будут под фильтрами лучше ставить в <noindex> </noindex> ну в общем в интернете информации очень много... да и опыт приходит со временем ... все будет не бойтесь неудач...


От души благодарю, буду разбираться. noindex значит noindex
Ramil Suleymanov
Цитата
Andrey Goncharov пишет:
То есть чем больше процент страниц не под фильтрами тем лучше?

Как бы да ,но зацикливаться на этом не нужно, если все делать правильно и качественно , то там фильтров не будет, те странички ,которые заведемо будут под фильтрами лучше ставить в <noindex> </noindex> ну в общем в интернете информации очень много... да и опыт приходит со временем ... все будет не бойтесь неудач...
Andrey Goncharov
Цитата
Ramil Suleymanov пишет:
Ну как сказать к 0 уж точно стремится не надо, ну если у вас тысячи страниц , то 100% не под фильтрами вряд ли будет, для этого придется ой как попотеть..


То есть чем больше процент страниц не под фильтрами тем лучше?
Ramil Suleymanov
Ну как сказать к 0 уж точно стремится не надо, ну если у вас тысячи страниц , то 100% не под фильтрами вряд ли будет, для этого придется ой как попотеть..
Andrey Goncharov
подскажите пожалуйста!! Процент указанный в статистике 54% из 50 страниц в индексе Google. К чему надо стремиться к 100% или к 0%? Заранее всем спасибо.
Ramil Suleymanov
Я вот недавно создал сайт , предпосылки к которому были с 2008 года, по-началу, для меня все шло как никуда лучше ,то есть купил домен,вроде бы не плохой для начала хостинг нашел, начал по-тихоньку заполнять контентом, улучшать дизайн , интексировались 7 страниц на гугле, 100% не под фильтром были, контент не сказл бы ,что уж прям 100% уникальный, но не копия, вдруг, проверяю индексированы страницы по гуглу 0, что это значит? что нужно делать? все обновляем в ручную, работает над сайтом не 1 человек и раскручивать будем по-белому , да и не раскручивали ,нам пока интересен не трафик, а именно индексированность и правильность ,чтобы не было фильтров и банов в поисковиках. Вот сайт pdcsoft.ru Прошу не критиковать, а дать желательно хороший ответ, можете отправить ответ в личку ,не буду против увидеть ответ прямо здесь. Заранее очень благодарен=) smile:(
Ramil Suleymanov
Я вот недавно создал сайт , предпосылки к которому были с 2008 года, по-началу, для меня все шло как никуда лучше ,то есть купил домен,вроде бы не плохой для начала хостинг нашел, начал по-тихоньку заполнять контентом, улучшать дизайн , интексировались 7 страниц на гугле, 100% не под фильтром были, контент не сказл бы ,что уж прям 100% уникальный, но не копия, вдруг, проверяю индексированы страницы по гуглу 0, что это значит? что нужно делать? все обновляем в ручную, работает над сайтом не 1 человек и раскручивать будем по-белому , да и не раскручивали ,нам пока интересен не трафик, а именно индексированность и правильность ,чтобы не было фильтров и банов в поисковиках. Вот сайт pdcsoft.ru Прошу не критиковать, а дать желательно хороший ответ, можете отправить ответ в личку ,не буду против увидеть ответ прямо здесь. Заранее очень благодарен=)
jamcatering
Да уж, не приведи, Господи, под фильтр Google. Что тут ещё скажешь...
У меня вот основной поток клиентов приходит из Google. И я с ужасом только могу подумать, что сайт под фильтр попадет...
airat333
Я что то не пойму, у меня "Google / % страниц не под фильтрами 1,590 / 0 %" это получается что все под фильтром, но люди с гугла комне приходят, почему так?
klinch
Интересная статейка
shinshop
а как узнал?где это проверить?
vlm123
почему то о главном упомянуто вскользь: гугл выводит в поиск далеко не все страницы, а только те, которые соответствуют его критериям "интересности для посетителей". То есть тексты обязательно должны быть разбавлены картинками, должна присутствовать внутренняя перелинковка, как в вики и пр. К примеру, если на странице выложен голый текст размером в 2000-3000 знаков, даже качественно отформатированный со стилями и прочем, и на этой странице нет другой графики кроме css, такая страница обречена на фильтр
Prapovednik
попасть всё может, зависит от твоих действий;)
podvyg
А сайт в зоне org может попасть в песочницу?
smirnow
Люди! У меня такая ситуация.... Смотрю тут сколько страниц гугл про индексировал пишет 1501... и 1% не под фильтрами!!! Народу с гугла почти не идет! Это фильтр или что? И еще хотелось бы пприбавить новые странички не очень охотно индексирует... Сайт master - cms . ru Без пробелов. Посмотрите пожалуйста что такое может быть((( А То я уже не представляю...
krava
всё правильно
Dizzy
Цитата
pet_fly пишет:
Сайт в ру зоне не попадает в песочницу?

Нет
pet_fly
Что есть буржуй инет?

Сайт в ру зоне не попадает в песочницу?
ruslansheva
недавно узнал что некоторые мои сайты под фильтром, был просто в шоке.
Страницы: 1 2 След.
Новые темыОбъявленияСвободное общение
17:55 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
17:04 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
15:43 Adtrafico - Правильная партнёрская сеть под бурж трафик 
12:50 Партнерская программа OWNR WALLET 
01:46 Настроить поставщиков в программе E-Trade PriceList Importer 
15:26 Найти элемент в коде 
11:51 Bropush - твой бро в монетизации сайта push-уведомлениями 
18:17 Восстановление сайтов из Вебархива на Wordpress 
17:59 Мобильные и Резидентные Прокси Для Соц Сетей | 3 Гб Бесплатно 
16:46 Ural-obmen.ru — выгодный сервис обмена 
16:40 Obama.ru - безопасный обмен криптовалют и электронных денежных средств 
13:54 Coin Click.cc - Быстрый и надежный обмен электронных валют в два клика 
11:40 Высококачественные и надежные прокси-серверы и 5G 
11:37 Google Voice - OLD аккаунты "SMS и звонки" 
10:56 Видимо, похороны СУПРа уже прошли как-то по-тихому 
12:48 Каспкрски ОС 
11:21 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди 
01:05 Точные прогнозы на футбол 
14:41 Бесплатный мини-аудит юзабилити и конверсии + технический SEO-аудит в подарок 
15:24 Добро пожаловать в цифровой мир... 
22:58 У меня дикая просадка по РСЯ за последние 3 суток