Фильтры Google
Фильтры GoogleКак у любой поисковой системы, у Google есть система фильтрации своей выдачи. Большой процент сайтов в интернете создано не для людей, а для перенаправления трафика на другие сайты, для влияния на поисковую выдачу и т. п., следовательно, чтобы выдача поисковика была чистой, этот мусор нужно тщательно отфильтровывать. Отфильтровывать таким образом, чтобы не пострадали нормальные сайты. А ведь нет четких критериев "нормальности", поэтому проблема фильтрации является сложной, и она до сих пор окончательно не решена. Под фильтры часто попадают "белые и пушистые" сайты, и причины этого попадания определить бывает очень сложно.

Анализируя информацию о фильтрах (а можно анализировать лишь мнения вебмастеров, так как сам Гугл не выкладывает практически никакой информации о своих поисковых технологиях), отчетливо видно, что названий фильтров множество, но все они сводятся практически к одному – раскручивай честно, и с сайтом будет все хорошо. Поэтому нет смысла определять с высокой точностью, как называется наложенный на сайт фильтр. Способы выхода из-под них примерно одинаковы, а знание названия ничего не изменит.

1. Sandbox, песочница. Фильтр, с которым сталкивается большинство молодых сайтов. Проявляется в том, что первые месяцы работы сайта он принципиально не может занять первые места в выдаче, как его ни раскручивай. Песочница – это не санкция, это определенный испытательный период для молодых сайтов. Причиной его введения, скорее всего, послужило желание отсеять короткоживущие дорвеи и не допустить их присутствия на лидирующих позициях в результатах поиска. До введения песочницы некоторым дорвеям достаточно было пробыть на первых местах в поиске буквально несколько суток или даже часов, чтобы принести существенную прибыль владельцу. А если таких сайтов много?

Пока сайт находится в песочнице, над ним нужно работать, чтобы после снятия фильтра он сразу занял хорошие позиции. Многие почему-то просто вешают на домен заглушку и ждут, но в этом нет смысла.

Есть мнение, что песочницы не существует, и ее эффект – это следствие действия комплекса других фильтров, например, прямого влияния возраста домена или траста. Так это или нет совершенно не важно, так как эффект вполне очевиден, и его можно назвать отдельным фильтром. Иногда отдельно выделяют фильтр для молодых доменов.

Песочница грозит лишь англоязычным сайтам. Избежать песочницы или сократить срок пребывания в ней можно несколькими способами. Впрочем, ни один из них не дает никакой гарантии:

- регулярно наращивать качественную (по возможности, естественную) ссылочную массу;

- изначально купить старый домен, на котором уже был возрастной трастовый сайт;

- регулярно обновлять сайт качественным уникальным контентом, отдавать его по rss. Заниматься копированием текстов в других сайтов не следует;

- закрыть от индексации все лишние служебные страницы сайта, оставив лишь то, что нужно и полезно посетителям;

- не использовать излишнюю текстовую оптимизацию.

2. Фильтр "минус 30". Фильтр против тех, кто слишком активно и агрессивно продвигает свой сайт. Он не призван полностью выбросить сайт из поиска, а создан, скорее, для того, чтобы намекнуть хозяевам сайта на недопустимость спамерских методов продвижения. Причинами его наложения могут быть:

- стремительный рост ссылочной массы, особенно если эти ссылки стоят с "мусорных" ресурсов – немодерируемых каталогов, гостевых книг, комментариев в блогах, форумов и т. п. Поэтому не стоит активно пользоваться системами автоматической регистрации сайта в подобных сервисах.

- наличие на сайте "ссылочных помоек" - больших, плохо модерируемых каталогов ссылок, блоков рекламных ссылок на страницах, статей, опубликованных специально для размещения рекламы.

- использование в раскрутке клоакинга. Клоакинг – выдача разного содержимого пользователям и роботам поисковой системы. Посетителям показываются читаемые информативные материалы, роботам – оптимизированные страницы для повышения поисковых позиций.

- использование редиректа при помощи java script. Следует использовать только серверные редиректы (301, 302). Конечно же, не любой java script приводит к этому фильтру, как многие считают.

Избавиться от фильтра можно избавившись от вышеуказанных методов продвижения и не используя их в дальнейшем. Удалив ссылочные помойки и почистив ссылочную массу, вы снимете фильтр с сайта.

3. Google Bombing. Остановка роста позиций по конкретному ключевому слову. Причина – быстрый рост ссылок с одинаковым анкором. Целесообразность его достаточно сомнительная, особенно касаемо некоммерческих запросов. Устранить его можно, например, разбавив ссылочную массу анкорами с текстовым окружением, да и вообще усилить ее трастовыми ссылками.

Причиной введения данного фильтра был собственно "гуглбомбинг" - массовая закупка ссылок (зачастую многими людьми) с одним текстом на определенный сайт затем, чтобы продвинуть его по какому-то абсурдному запросу. Классический пример – первое место у сайта Макдональдса по запросу "ближайший общественный туалет" или у сайта Дмитрия Медведева по запросу "злобный карлик". Делалось это или просто ради шутки, или для того, чтобы навредить конкуренту или же просто в качестве вирусного маркетинга. Гуглбомбинг - следствие алгоритма ссылочного ранжирования, который, при наличии мощной ссылочной массы, практически не учитывает текстовое наполнение продвигаемой страницы. Впрочем, с введением этого фильтра избавиться от данного явления полностью не удалось.

4. Google Florida. Классический вариант пессимизации сайта – резкого падения позиций по всем продвигаемым запросам и, как следствие, падение трафика на несколько порядков. Накладывается за излишнюю оптимизацию страниц – перенасыщенность текста ключевыми словами, излишнее их наличие в тегах title, h1-h6, спамные мета-теги; по большому счету, за те действия владельца сайта, которые направлены на его продвижение, а не на улучшение с точки зрения пользовательского удобства. Фильтр работает не постоянно, а периодически; накладывается, в основном, на сайты, продвигаемые по коммерческим запросам. Это привело к тому, в частности, что на первых местах по многим поисковым запросам, даже по самым дорогим с точки зрения раскрутки, на первых местах находятся информационные или образовательные сайты, а не ресурсы, вкладывающие в продвижение большие деньги.

5. Supplemental Results. Дополнительные результаты поиска ("сопли"), то, что показывается после клика по ссылке "повторить поиск, включив опущенные результаты". Главная причина этого – неуникальность во всех пониманиях этого слова, в том числе в рамках одного сайта, дублирование информации. Одинаковые по структуре и, тем более, по содержимому страницы попадают в дополнительные результаты. В зарубежном интернете многие оценивают сайты именно по проценту содержания страниц в основной выдаче Гугла. Если этот процент ниже 30-40, то сайт считается неуникальным и не очень качественным. К наложению этого фильтра могут привести плохо настроенные CMS, которые генерируют много дублирующих страниц, а также страниц, не несущих полезной информации пользователям. Такие страницы, естественно, либо вообще фильтруются, либо попадают в supplemental.

Для того чтобы избежать выпадения страниц в дополнительные результаты, следует, в первую очередь, использовать качественный уникальный контент. Во-вторых, нужно по максимуму исключить дублирование текстов в рамках своего сайта, закрыть от индексации все дубли. Этот фильтр зависит от запроса; по одному запросу страница может быть в основном поиске, по другому – в дополнительных результатах.

Вывести страницу из-под этого фильтра можно таким образом:

- покупка на нее трастовых ссылок;

- уникализация title и мета-тегов;

- увеличение количества на ней уникального контента;

- уменьшение "битых" ссылок на сайте и, как следствие, страниц, выдающих ошибку 404;

- правильная настройка движка сайта.

6. Фильтр на неуникальный контент. Быть может, не стоит выделять его как отдельное явление, но уж очень это массово. Страница, не содержащая уникального контента, попадет на первые позиции разве что заполучив огромную и трастовую ссылочную массу, да и то через долгое время. Из множества страниц, содержащих одинаковый текст, Гугл выбирает лишь несколько, которые и выдает в основной выдаче.

7. Фильтр на нерабочие ссылки. Позиции сайта могут понижаться, если на нем содержится много битых ссылок и 404-страниц. Избавиться от него можно, соответственно, избавившись от таких ошибок.

8. Фильтр на долго загружающиеся сайты. Если роботы Гугла не получают быстрый отклик от сервера, позиции сайта понижаются вплоть до полного исключения их из поискового индекса. Несколько лет назад от этого фильтра можно было эффективно избавиться, уменьшив размер страниц и изображений, находящихся на них. Сейчас же, когда интернет стал скоростным, и страница, даже занимающая несколько мегабайт, загружается очень быстро, причины подобных задержек могут заключаться в другом. Например, в неправильно настроенных скриптах или сервере. Поэтому копать надо глубже, в том числе выяснить у хостера, не ограничивается ли доступ к сайту для роботов поисковых систем.

9. Фильтр цитирования (Co-citation Linking Filter). Суть этого фильтра сводится к тому, что ссылаться надо только на качественные сайты, которые, в свою очередь ссылаются тоже на нормальные ресурсы. Естественно, проследить всю цепочку ссылок невозможно, соответственно, следует исходить из того, что, ставя на своем сайте ссылку на другой, вы рекомендуете его посещение своим посетителям. А если рекомендуются плохие сайты, Гугл делает вывод о том, что сам сайт тоже является некачественным и таким, который не заботится о своих пользователях.

Фильтр может накладываться на сайты, продающие ссылки или места под статьи в автоматическом режиме, и владельцы которых не особо тщательно фильтруют поступающие рекламные материалы.

10. Фильтр ссылочных помоек. К нему может привести активное участие в системах автоматического обмена ссылками и появление на сайте большого количества страниц, содержащих исключительно ссылки. Обмен ссылками должен быть ручным, меняться нужно только с ограниченным числом качественных сайтов. И первичным на самом сайте должен быть именно его информационное наполнение, а не каталоги ссылок, играющие вспомогательную роль.

11. Фильтр взаимных ссылок. Массовый взаимный обмен, с точки зрения Гугла, это плохо. Поэтому следует использовать более сложные схемы обмена ссылками, например, когда первый сайт ссылается на второй, второй на третий, а третий на первый. Есть и более запутанные схемы обхода фильтра.

12. Фильтр быстрого прироста контента. Если сайт обновляется слишком часто и активно, Гугл может заподозрить его в использовании генераторов или парсеров контента и, следовательно, понизить его позиции или исключить из выдачи. Поэтому при использовании подобных генераторов стоит поставить ограничение на количество добавляемого материала за определенный период времени.

13. Google Bowling. Фильтр, существование которого подвергается сомнению. Суть его заключается в том, что он отслеживает сайты, занимающиеся нечестной конкурентной борьбой с целью загнать своих конкурентов под фильтры Гугла, например, массово закупая некачественные ссылки или рассылая спам.

14. Trust Rank. Степень доверия Гугла к конкретному сайту. Собственно фильтром траст не является, но сайту с более высоким показателем проще будет достичь высоких позиций. На него влияет фактически все то, что делает сайт интересным пользователям, в том числе и возраст сайта, который может говорить о серьезности намерений вебмастера.

Надо помнить одно. Качественному сайту, который делается для людей, который регулярно обновляется качественной и интересной информацией, на которой появляются естественные ссылки, большинство фильтров не грозит.


15 Октября 2010
Количество показов: 27850
Автор:  Сергей Коломиец
Комментарии:  26

Возврат к списку


(Голосов: 82, Рейтинг: 4.42)

Комментарии пользователей:


Страницы: 1 2 След.
Это нравится:0Да/0Нет
Simbasmoby Simbasmoby
я не могу понять, а что Google / % страниц не под фильтрами этот показатель меняется каждый день? при этом один день он показывает 23000 страниц из них 61% не по фильтрами, а на следующий день 19900 страниц и 3% не под фильтрами, еще через день 20000 и 4% не под фильтрами.
Что это вообще?
Это нравится:0Да/0Нет
BestFriends
Как выйти из фильтра если сайт уже давно под фильтром? smile:(
Это нравится:0Да/0Нет
PS2012
Статья интересная и полезная. Но заморачиваться и зацикливаться на показателях типа: Google / % страниц не под фильтрами 1030 / 3 % не стоит. Сайт с аналогичными показателями www.pompaall.ru отлично выдаётся как Google, так и в др. поисковиках.
Это нравится:0Да/0Нет
Любовь Молчанова
Подскажите, пожалуйста, мне предлагает обменяться ссылками сайт, у которого, из 58,000 1% не под фильтрами. А у меня - 100%. Обмениваться с ним ссылками, или нет? Посоветуйте...
Это нравится:0Да/0Нет
Геннадий Шевчук
Google / % страниц не под фильтрами 72 / 68 %   я так  понимаю 72 страницы проиндексированы  из них 62% т.е 45 страниц не под фильтрами. Я правильно понимаю???
Это нравится:0Да/0Нет
flexitank
Фильтры Google- 5!
Это нравится:0Да/0Нет
Andrey Goncharov
Цитата
Ramil Suleymanov пишет:
Цитата
Andrey Goncharov пишет:
То есть чем больше процент страниц не под фильтрами тем лучше?

Как бы да ,но зацикливаться на этом не нужно, если все делать правильно и качественно , то там фильтров не будет, те странички ,которые заведемо будут под фильтрами лучше ставить в <noindex> </noindex> ну в общем в интернете информации очень много... да и опыт приходит со временем ... все будет не бойтесь неудач...


От души благодарю, буду разбираться. noindex значит noindex
Это нравится:0Да/0Нет
Ramil Suleymanov
Цитата
Andrey Goncharov пишет:
То есть чем больше процент страниц не под фильтрами тем лучше?

Как бы да ,но зацикливаться на этом не нужно, если все делать правильно и качественно , то там фильтров не будет, те странички ,которые заведемо будут под фильтрами лучше ставить в <noindex> </noindex> ну в общем в интернете информации очень много... да и опыт приходит со временем ... все будет не бойтесь неудач...
Это нравится:0Да/0Нет
Andrey Goncharov
Цитата
Ramil Suleymanov пишет:
Ну как сказать к 0 уж точно стремится не надо, ну если у вас тысячи страниц , то 100% не под фильтрами вряд ли будет, для этого придется ой как попотеть..


То есть чем больше процент страниц не под фильтрами тем лучше?
Это нравится:0Да/0Нет
Ramil Suleymanov
Ну как сказать к 0 уж точно стремится не надо, ну если у вас тысячи страниц , то 100% не под фильтрами вряд ли будет, для этого придется ой как попотеть..
Это нравится:0Да/0Нет
Andrey Goncharov
подскажите пожалуйста!! Процент указанный в статистике 54% из 50 страниц в индексе Google. К чему надо стремиться к 100% или к 0%? Заранее всем спасибо.
Это нравится:0Да/0Нет
Ramil Suleymanov
Я вот недавно создал сайт , предпосылки к которому были с 2008 года, по-началу, для меня все шло как никуда лучше ,то есть купил домен,вроде бы не плохой для начала хостинг нашел, начал по-тихоньку заполнять контентом, улучшать дизайн , интексировались 7 страниц на гугле, 100% не под фильтром были, контент не сказл бы ,что уж прям 100% уникальный, но не копия, вдруг, проверяю индексированы страницы по гуглу 0, что это значит? что нужно делать? все обновляем в ручную, работает над сайтом не 1 человек и раскручивать будем по-белому , да и не раскручивали ,нам пока интересен не трафик, а именно индексированность и правильность ,чтобы не было фильтров и банов в поисковиках. Вот сайт pdcsoft.ru Прошу не критиковать, а дать желательно хороший ответ, можете отправить ответ в личку ,не буду против увидеть ответ прямо здесь. Заранее очень благодарен=) smile:(
Это нравится:0Да/0Нет
Ramil Suleymanov
Я вот недавно создал сайт , предпосылки к которому были с 2008 года, по-началу, для меня все шло как никуда лучше ,то есть купил домен,вроде бы не плохой для начала хостинг нашел, начал по-тихоньку заполнять контентом, улучшать дизайн , интексировались 7 страниц на гугле, 100% не под фильтром были, контент не сказл бы ,что уж прям 100% уникальный, но не копия, вдруг, проверяю индексированы страницы по гуглу 0, что это значит? что нужно делать? все обновляем в ручную, работает над сайтом не 1 человек и раскручивать будем по-белому , да и не раскручивали ,нам пока интересен не трафик, а именно индексированность и правильность ,чтобы не было фильтров и банов в поисковиках. Вот сайт pdcsoft.ru Прошу не критиковать, а дать желательно хороший ответ, можете отправить ответ в личку ,не буду против увидеть ответ прямо здесь. Заранее очень благодарен=)
Это нравится:0Да/0Нет
jamcatering
Да уж, не приведи, Господи, под фильтр Google. Что тут ещё скажешь...
У меня вот основной поток клиентов приходит из Google. И я с ужасом только могу подумать, что сайт под фильтр попадет...
Это нравится:0Да/0Нет
airat333
Я что то не пойму, у меня "Google / % страниц не под фильтрами 1,590 / 0 %" это получается что все под фильтром, но люди с гугла комне приходят, почему так?
Это нравится:0Да/0Нет
klinch
Интересная статейка
Это нравится:0Да/0Нет
shinshop
а как узнал?где это проверить?
Это нравится:0Да/0Нет
vlm123
почему то о главном упомянуто вскользь: гугл выводит в поиск далеко не все страницы, а только те, которые соответствуют его критериям "интересности для посетителей". То есть тексты обязательно должны быть разбавлены картинками, должна присутствовать внутренняя перелинковка, как в вики и пр. К примеру, если на странице выложен голый текст размером в 2000-3000 знаков, даже качественно отформатированный со стилями и прочем, и на этой странице нет другой графики кроме css, такая страница обречена на фильтр
Это нравится:0Да/0Нет
Prapovednik
попасть всё может, зависит от твоих действийsmile;)
Это нравится:0Да/0Нет
podvyg
А сайт в зоне org может попасть в песочницу?
Это нравится:0Да/0Нет
smirnow
Люди! У меня такая ситуация.... Смотрю тут сколько страниц гугл про индексировал пишет 1501... и 1% не под фильтрами!!! Народу с гугла почти не идет! Это фильтр или что? И еще хотелось бы пприбавить новые странички не очень охотно индексирует... Сайт master - cms . ru Без пробелов. Посмотрите пожалуйста что такое может быть((( А То я уже не представляю...
Это нравится:0Да/0Нет
krava
всё правильно
Это нравится:0Да/0Нет
Dizzy
Цитата
pet_fly пишет:
Сайт в ру зоне не попадает в песочницу?

Нет
Это нравится:0Да/0Нет
pet_fly
Что есть буржуй инет?

Сайт в ру зоне не попадает в песочницу?
Это нравится:0Да/0Нет
ruslansheva
недавно узнал что некоторые мои сайты под фильтром, был просто в шоке.
Страницы: 1 2 След.
Новые темыОбъявленияСвободное общение
01:37 Как пройти модерацию в Адвордс? 
01:32 24.03.2017 Яндекс выдача 
01:31 Нужна помощь - Как вывести табло на сайт 
01:31 27.03.2017 Яндекс выдача 
01:07 linkpad показывает хренову кучу исходящих ссылок на сайте. 
00:34 Adsense личный опыт 
23:04 Баден-Баден - новый алгоритм определения переоптимизированных текстов 
01:03 Продам сайт энциклопедия оружия 
23:41 Изготовление Логотипов,Баннеров,Интро видео и многое другое 
23:00 Продам два отличных сайта 
22:29 XMLGold.eu (Perfect Money, Bank wire, Bitcoin, Litecoin, AdvCash, Payeer, Paypal) 
22:15 Недорогой копирайтинг/рерайт от "поклонника" сферы информационных технологий 
21:45 Статейно-профильный прогоны с невысокими гибкими тарифами. 
19:55 Качественный прогон Хрумером всего 10 WMZ 
01:34 Курица или яйцо: ученые нашли ответ на извечный вопрос 
01:01 Бот-информер погоды Вконтакете 
00:26 Веселые картинки 
22:55 Посоветуйте тизерку 
19:50 ProkMLM / Прок МЛМ - Независимая программа 
16:09 Нужны скрины поисковой выдачи яши 
16:01 Нужен шаблон