Фильтры Гугла – детальный обзор
Фильтры Гугла – детальный обзор

Со времени моей прошлой статьи по данной тематике прошло полтора года. С тех пор ситуация существенно поменялась, хотя общие моменты из того текста до сегодняшнего дня остаются актуальными. В этой статье рассмотрим современное состояние проблемы и пути ее решения. Проблема – борьба с поисковыми системами вообще и с Гуглом в частности.

Прикрываясь заботой о пользователях, Гугл думает только о своем заработке. Поиск последнее время совершенно не улучшается, особенно это заметно по некоммерческим запросам. Продвинуть даже очень качественный сайт в топ стало намного сложнее, чем раньше.

То, что детально расписано в прошлых статьях (песочница, панда, пингвин и т. п.) – тут описывать не буду, за исключением изменений в этих фильтрах.

В 2016 году Панда (а многие другие фильтры – раньше, скорее всего) изменила свою суть – данный фильтр перестал быть самостоятельным и просто влился в общую систему алгоритмов и факторов ранжирования Гугла. Это упростило задачу вебмастерам, так как теперь избавиться от этой зверушки стало проще; не нужно ждать долгое время, позиции вернутся сразу с переиндексацией и обновлением индекса.

Напомню, что Панда – фильтр за некачественный контент (копипаст, плохой рерайт, синонимайз и т. п.) Раньше санкция применялась ко всему ресурсу, сейчас же качественные страницы с него могут попадать в топ. Если вебмастер считает страницу нужной для сайта, однако качество ее объективно не соответствует требованиям Гугла, лучше закрыть ее от индексации.

Часто мелькала информация про запуск новой версии Пингвина – 4.0, однако достоверный сведений о том, что этот алгоритм уже запущен пока что нет.

У Гугла есть отличный сервис отклонения ссылок - Disavow Links. Если сайт попал под один из ссылочных фильтров, нужно выгрузить все внешние ссылки, проанализировать их и добавить в данный сервис все неподходящие.

Кстати, по качеству ссылок у меня возник вопрос, на который я не нашел пока ответ. Если ссылка естественная, но размещена на говносайте, в плохом окружении и т. п. – ее надо просить удалить или добавлять в вышеуказанный сервис? Или же, раз она естественная, пусть будет? Для Яндекса я б ее оставил. Для Гугла – неизвестно. Прошу в комментарии для обсуждения.

Google -30

Старый и известный фильтр, направленный против ссылочного спама в широком понимании этого слова. Это может быть массовое размещение ссылок в открытых источниках (форумы, гостевые книги, комментарии и пр.), наличие на сайте некорректных редиректов, дорвейных страниц. Симптом – падение позиций сайта ниже 30-го места.

В настоящее время подобные "черные" методы продвижения не особо актуальны и их мало кто использует. Со ссылочной массой надо работать тонко и комплексно с целью максимизировать ее "естественность". Потому как если спамить где попало, избавиться потом от всевозможных санкций поисковиков будет крайне сложно.

Гугл-бомбинг

Недостаток многих поисковых алгоритмов, от которого уже практически избавились вместе с минимизацией влияния ссылочного ранжирования. Суть его заключается в том, что на первые места выдачи попадают совершенно нерелевантные страницы из-за того, что намеренно размещено большое количество ссылок на них с анкором, содержащим текст этого запроса. Например, по запросу "лжец" или "мошенник" выдавалась ссылка на известного политика.

В настоящее время навредить вашему сайту бомбинг практически не может. Все большее и большее влияние имеют внутренние, социальные и поведенческие факторы ранжирования, которые зачастую перекрывают влияние внешних ссылок.

Гугл-боулинг

Гугл-боулинг – не конкретный фильтр, а комплексные попытки конкурентов "завалить" сайт в выдаче, натравить на него всевозможные санкции Гугла. Это может быть покупка множества некачественных ссылок с одинаковыми анкорами, создание дорвеев, перенаправляющих посетителей на данный ресурс, жалобы в Гугл по множественным надуманным причинам, рассылки спама от чужого имени, создание копий сайта на других доменах и т. д., все ограничивается лишь фантазией и бюджетом недоброжелателей.

Было довольно опасно пару лет назад, сейчас же Гугл лучше научился каким-то образом отличать, кто именно совершал данные действия. Поэтому можно особо не переживать, особенно если сайт имеет высокий "траст" (возраст домена, хороший трафик, социальные и поведенческие сигналы и т. п.) А новому сайту никто и не будет вредить таким затратным и трудоемким способом.

Фильтр за переоптимизацию

Google Florida – пожалуй, одна из первых санкций, которая сильно покосила тогдашние топы. Направлен он против чрезмерной внутренней оптимизации – выделения ключевых слов, множество тегов заголовков, высокая плотность ключевых слов и прочие методы, направленные именно на влияние на поисковую систему.

Сейчас не особо актуально, так как все это способы продвижения давно устарели по причине своей неэффективности. Судя по всему, данный фильтр стал частью чего-то большего типа Пингвина или же просто вписался в основной алгоритм ранжирования Гугла.

Социтирование

Социтирование – анализ поисковой системой ссылок, расположенных рядом со ссылкой на ваш сайт. То есть, это борьба не только и не столько с нетематическими линками, а еще и с нерелевантным их окружением. Несколько ссылок совершенно разной тематики на одной странице могут намекать на то, что данный сайт – просто ссылочная помойка, и естественные ссылки с него появляться просто не могут.

Несмотря на распространенное заблуждение, речь тут идет исключительно о тематике ссылок и их окружения, но не о качестве ссылающихся сайтов.

Фильтр за низкую скорость загрузки сайта

Гугл анализирует скорость загрузки страниц сайта, и если она меньше определенного предела – ранжирует их ниже, чем те, которые грузятся быстрее.

Скорость загрузки может зависеть от многих факторов:

- конфигурация виртуального или физического сервера;
- выделенные ресурсы для шаред-хостинга;
- ширина канала;
- настройки сервера;
- количество скриптов на странице;
- оптимизация кода;
- количество картинок на странице и их размер.

В Google Analytics есть специальный раздел для детального анализа данного показателя, выявления возможных причин падения скорости и решения проблем с ними. Судя по всему, информация об оптимальном времени загрузки страниц определяется статистически, по относительно небольшой выборке серверов.

Последнее время многие вебмастера, особенно живущие в больших городах, начинают привыкать к тому, что у многих людей скорость интернета так высока, что страницы грузятся моментально независимо от их размера. Это опасное заблуждение, так как, во-первых, далеко не у всех высокая скорость, а, во-вторых, перегруженная тяжелыми скриптами (особенно в верхней части кода), изображениями и видеороликами страница будет загружаться долго в любом случае. Не стоит забывать об оптимизации размера изображений – помните, что кроме JPG есть форматы GIF и PNG. Не стоит увлекаться визуальными эффектами там, где они совершенно не нужны.

Обратная сторона этой санкции – возможность понизить позиции сайта конкурентами при помощи DDOS-атаки на него. Даже если сайт полностью не отключится, сервер из-за повышенной нагрузки будет медленнее работать, что может негативно отразиться на скорости загрузки сайта.

Supplemental

Supplemental results, они же "сопли Гугла" - так называемый дополнительный индекс, куда попадают страницы с копипастом, просто низкого качества или с минимальным весом. На самом деле "соплей" давно уже не существует. Миф живуч, однако supplemental давно уже поглощен основной массой поискового алгоритма Гугла, и выделять его как какой-то отдельный алгоритм некорректно.

Да, страницы с повторяющимся контентом часто попадают под ссылку "Показать скрытые результаты" внизу выдачи, и, кстати, далеко не всегда это попадание бывает корректным. Это касается только конкретного запроса; по другим же они могут попадать в основную выдачу. Это не говорит о какой-то санкции, под который попал данный сайт вообще или некоторые его страницы в частности.

Поисковый оператор "site:blablabla.ru" тоже не является корректным в данном контексте. Он никогда не показывал точное количество страниц в индекса. Во-первых, это количество может меняться от проверки к проверке, во-вторых, при пролистывании списка количество будет намного меньше, чем показано сверху.

Собственно, все рекомендации по выходу из "соплей" актуальны до сих пор, просто влияют они уже не на старый, а на один из новых фильтров, например Панду. Качественные страницы с уникальным контекстом нужны всегда.

Mobile-Friendly

Данный фильтр направлен на то, чтобы подстегнуть вебмастеров оптимизировать сайты для корректного отображения на экранах смартфонов. Сайты, которые на них плохо отображаются, будут существенно понижаться в основном индексе (при поиске с телефона).

Эта штука может негативно повлиять на дизайн – если у сайта нет специальной мобильной версии, то его основной вид превращается в что-то неудобоваримое на больших мониторах – крупные шрифты, огромные кнопки, минимум текста и т. д. Фильтр затрагивает не весь сайт целиком, а отдельные его страницы. Поэтому можно оптимизировать только те, на которых важен именно мобильный трафик. Как вариант, можно сделать отдельную мобильную версию проекта, не меняя из-за этого дизайн версии для компьютеров.

У Гугла есть сервис, который проверяет сайт и указывает на недостатки в аспекте оптимизации под смартфоны. Важные моменты:

- достаточная величина шрифта;
- большой размер активных элементов;
- отсутствие горизонтальной прокрутки (собственно, это актуально для любых версий сайтов);
- использование всплывающих или выдвижных меню вместо статичных и др.

Для визуальной проверки корректности отображения сайта на разных разрешениях и размерах экранов используйте эмуляторы мобильных устройств, например, специальный плагин для Google Chrome.

Фильтр за битые ссылки

Как понятно из названия, эта санкция направлена на борьбу с сайтами, у которых есть много 404 страниц, то есть, ссылок, ведущих в никуда. Это можно свидетельствовать о том, что вебмастер плохо заботится о собственном ресурсе или же о неверно настроенном движке. Выход простой – проверить ресурс одним из сервисов на наличие несуществующих страниц и исправить ситуацию. Это будет полезно в любом случае.

Ссылочный взрыв

Скорее всего, нет никакой конкретной санкции, направленной на противодействие сайтам, которые покупают за короткое время большое число дешевых ссылок. Это наверняка часть большого алгоритма борьбы за естественность продвижения и, следовательно, ссылочной массы.

Сейчас, когда покупные линки, по сути, доживают свой век, эта санкция не особо актуальна. Вряд ли кто-то сейчас закупает ссылки на биржах тысячами за день; оптимизаторы действуют тоньше, ссылочные бюджеты увеличились, делается упор на качество и "естественность". Конкуренты не дремлют – но, думаю, Гугл давно нашел способ отличить их манипуляции от действий самого вебмастера.

Фильтр на накрутку поведенческих факторов

Как и любые искусственные манипуляции при продвижении сайта, данный вид накрутки тоже преследуется Гуглом. Конечно, можно долго и тщательно оттачивать каждый элемент дизайна и верстки с целью максимального удовлетворения целевой аудитории. А можно потратить относительно небольшую сумму денег и заказать накрутку ПФ – повышение общего время нахождения на сайте, глубины просмотра, всяческих интерактивных действий и т. п. Второй вариант проще (есть множество сервисов для этих целей) – но так как сайт от этого лучше не станет, он будет опущен в выдаче.

Детально про поведенческие факторы ранжирования написано в моей отдельной статье; с тех пор, по сути, мало что поменялось.

Google Pirate

Как понятно из названия, фильтр направлен на борьбу с пиратским контентом. Большинство страниц таких сайтов просто не попадают в основную выдачу. Гугл использует скандально известный закон DMCA о защите авторских прав, реагируя на все жалобы без разбору. Да, заявка должна быть по определенной форме, но судя по результатам, никто не их не анализирует детально.

На сайте lumendatabase.org можно проверить страницы, сайта, которые попали под данную санкцию; там же указан правообладатель контента. Было несколько "волн" данного фильтра, которые покосили большинство пиратских сайтов. Из индекса выпадает до 98% страниц, соответственно, и трафик падает на порядки.

Однако, как видно из индекса, борьба практически безнадежна – такое впечатление, что под санкции попадает тысяча сайтов, а на их место выходит миллион. Не те методы борьбы выбраны, похоже...

Фильтр PayDay Loan

Данный фильтр затронул так называемые "спамные" запросы, например, краткосрочные займы, в честь которых он и назван. Что касается Рунета, тут больше всего были затронуты сайты по аренде недвижимости, недвижимость, онлайн-казино, микрокредитные организации, варезники и т. п. В подобных тематиках топы были заполнены чем угодно, кроме релевантной информации, несмотря на активное действие других фильтров. Опять же, у фильтра было несколько последовательных версий.

Польза от фильтра очевидна – действительно полезные сайты по этим тематикам попали в топ и их трафик возрос. А пользователи начали получать требуемую информацию или услуги. Как из-под него выйти – предоставлять релевантный запросу контент. Не ссылки на партнерские программы, не дорвеи, а то, что запрашивает посетитель.


22 Июля 2016
Количество показов: 7536
Автор:  Сергей Коломиец

Возврат к списку


(Голосов: 14, Рейтинг: 2.55)

Новые темыОбъявленияСвободное общение
21:39 Трамп пригрозил Google судом 
20:45 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
15:03 Adtrafico - Правильная партнёрская сеть под бурж трафик 
12:43 Profit Pixels - In-House Форекс, Крипто, Трейдинг CPA Офферы | Еженедельные Выплаты | CPA до $950 
18:22 3snet - гемблинг, беттинг, форекс, бинарные опционы, майнинг 
17:52 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
14:18 Как получить большую скидку на покупку Xrumer, Xevil 
21:57 Продаю сайт о Заработке в Интернете без вложений и на Инвестициях! Сайту 5 лет! 
19:50 (300€) Копия Hamster Kombat 
19:35 Sectormoney.com - быстрый и удобный обменник 
17:26 Продажа аккаунтов Bing Ads с балансом! 
17:15 N-Obmen.net - более 10 лет в сфере обмена 
15:31 [My4gproxy.com] Только от $35. Мобильные прокси из USA, UK, АU, INDIA, RU, UA. 
12:21 Мобильные и Резидентные Прокси Для Соц Сетей | 3 Гб Бесплатно 
21:44 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди 
21:41 Шашлыки в 2012-2022 году 
21:40 Telegram не смог провести различие между требованиями автократических режимов и законными демократическими запросами 
21:38 Новый уровень мошенничества: как россиян обманывают с помощью фейковых порнороликов 
21:36 Осторожно! Криптовалюта 
12:23 Клещи 
01:35 Точные прогнозы на футбол