Все, что нужно знать о фильтрах Google в 2019 (Panda, Penguin…)

Официально (!) 400 тыс. сайтов в месяц попадают под ручные фильтры поисковой системы Google

...количество сайтов, попадающих под алгоритмические (автоматические) санкции Google еще больше.

Но только 20 из 400 тыс. подают заявку на снятие фильтров. Отсюда следуют интересные выводы…

Вывод №1. Всего лишь 5% сайтов узнают, что попали под фильтры Гугла.

Вывод №2. Количество ресурсов, которым удается выбраться из под санкций в десятки раз меньше тех, которые под них попали.

В этой статье вы узнаете, какие фильтры бывают у поисковой системы Google, и как не попасть под них. 

А если вы все-таки попали под них, вы узнаете, как быстро выбраться.

1. Санкции за некачественный контент (Google Panda)

Помните главного персонажа из мультфильма “Кунг-Фу Панда”? Забавно, но этому довольно неуклюжему герою всегда удавалось побеждать своих более мастеровитых соперников.

Мораль такова:

Если на вашем сайте много некачественного контента, вы проиграете также, как и все соперники героя мультфильма.

Но кому именно грозит фильтр Google Panda?

Он грозит тем ресурсам, контент которых :

  • Не несет ценности.
  • Напичкан ключевыми словами (переоптимизация).
  • Содержит много рекламы.

Все вышеперечисленные проблемы делают ваш сайт бесполезным в глазах поисковых систем.

Помимо низкокачественного контента, есть еще 3 ситуации, которые могут спровоцировать наложение данного фильтра.

Во-первых, это дубли контента. Бывает, статья на блоге относится к разным рубрикам и доступна по разным URL адресам:

www.site.ru/mercedes/mercedes-s-500

​​​​www.site.ru/nemetskie-avto/mercedes-s-500

Во-вторых, это каннибализация ключевых слов. Такое происходит, когда вы создаете несколько страниц для одного и того же запроса:

www.site.ru/kak-puteshestvovat-besplatno

www.site.ru/kak-puteshestvovat-besplatno-po-miru

Обе страницы в примере выше продвигаются по одному запросу, тем самым мешая друг-другу. Но существуют более опасные ситуации: когда для одного запроса создаются 7-8 разных страниц.

Посмотрев на примеры выше, вы могли подумать, что каннибализация ключевых слов встречается только у информационных ресурсов, но это не так. Часто и у коммерческих проектов можно встретить страницы, продвигающиеся под один и тот же запрос.

В-третьих, к фильтру Google Panda может привести воровство контента. Это не самая лучшая идея - брать контент с других сайтов и размещать у себя.

Возможно, один такой случай ни к чему плохому и не приведет (с точки зрения SEO), но частое пренебрежение моральной чистоплотностью могут привести к санкциям.

Интересный факт...

Гугл Панда был запущен в 2011 году. Сразу после релиза в англоязычном интернете под фильтр попало около 12% всех сайтов. В марте 2013 года было объявлено, что фильтр Google Panda стал частью алгоритма Google.

Как определить, что сайт попал под фильтр Google Panda…

Ответ на этот вопрос, а также о том, как проходить лечение вы узнаете чуть позже. А пока мы переходим к следующему фильтру.

2. Манипуляция ссылками (Google Penguin)

Если вы когда-либо слышали о том, что ссылки помогают в поисковом продвижении, не торопитесь бежать на специализированные биржи и закупать их пачками.

Это как минимум может привести к сливу денег в унитаз. Как максимум, ваш сайт может попасть под фильтр Гугл Пингвин.

Поисковая система Google не любит, когда вебмастера манипулируют ссылками в надежде заполучить высокие позиции в выдаче. На это могут указывать следующие факты:

  • Неестественно быстрый рост ссылок (ссылочный взрыв).
  • Ссылки с некачественных или нетематических ресурсов.
  • Повторяющиеся анкоры (тексты ссылок).

Фильтр Гугла Пингвин был запущен в 2012 году, а в 2016 году он стал частью алгоритма поисковой системы. После релиза от Пингвина пострадали 3.1% англоязычных сайтов.

О том, как диагностировать Google Penguin и как выйти из под него вы узнаете чуть позже. А пока мы подходим к одному из самых важных “фигурантов”...

3. “Песочница” Гугла (фильтр Sandbox)

“Песочницей” принято называть период, в течении которого новый сайт не получает высоких позиций в поиске.

Существует ли на самом деле “Песочница”?

Есть много разных мнений на этот счет. Но все сходятся в одном: молодой ресурс в 99,99% случаев не способен получить ТОПовые позиции по высокочастотным запросам.

Почему такое происходит? Есть разные теории…

Теория №1. Корысть. Google хочет, чтобы вебмастера вкладывали деньги в контекстную рекламу, пока их сайт не начнет более или менее хорошо ранжироваться в органической выдаче.

Теория №2. Логичное объяснение. Google хочет, чтобы новый ресурс прошел так называемый испытательный срок.

Поисковой системе требуется время чтобы понять, насколько качественным является сайт и насколько хорошо он удовлетворяет потребности пользователей.

Соответственно, Google смотрит на следующие метрики: 

  • Количество ссылающихся доменов
  • Количество уникальных посетителей
  • Показатель отказов​
  • Среднее время
  • Упоминания бренда
  • и так далее... 

На сбор всех этих данных требуется немало времени. Именно поэтому молодой ресурс не получает ТОПовых позиций в течение долгого времени после запуска.

Теория №3. Отсутствие ссылок. Некоторые считают, что молодые сайты не могут высоко ранжироваться по высокочастотным запросам по той простой причине, что у них слабый ссылочный профиль.

Итак, сколько же длится период “Песочницы”?

Всегда по-разному. Но обычно от нескольких месяцев до 1 года. Многое зависит от ниши, конкуренции и многих других факторов.

Обычно, в таких тематиках как “медицина” и “юриспруденция” новички дольше находятся в “Песочнице”. И это логично, ведь недостоверная информация по этим темам может навредить жизни человека.

Можно ли быстро выбраться из “Песочницы”...

Можно. Есть 2 варианта, как это сделать. Хотя, второй вариант зачастую от нас не зависит…

Вариант 1. Если запуская интернет-магазин вы разработаете максимально широкое и грамотное семантическое ядро, есть вероятность, что Google сразу начнет давать вам достаточно трафика.

Вариант 2. Иногда Google может с самого начала (по своему усмотрению) дать новому сайту много трафика:

Источник изображения ahrefs

Он это делает для того, чтобы оценить поведенческие факторы.

Как быстрее выбраться из “Песочницы”...

Во-первых, удостоверьтесь, что ваш сайт не закрыт от индексации. Вам этот совет может показаться очевидным, но позвольте не согласиться.

Очень часто программисты во время проведения работ закрывают доступ роботам поисковых систем. Но при запуске рабочей версии они забывают убрать соответствующую запись в файле robots.txt и он остается “закрытым”.

Бывает и такое, когда сами владельцы временно закрывают его от индексации и при публикации контента забывают об этом.

Во-вторых, делайте ставку на низкочастотные запросы. По менее популярным запросам даже молодые ресурсы могут хорошо ранжироваться.

В-третьих, публикуйте качественный контент, который позволит увеличить брендированные запросы.

Чем больше людей будут вводить в поиск название вашей компании, название вашего продукта или ваше имя, тем быстрее получится выйти из “Песочницы”.

В-четвертых, делайте ставку не только на SEO, но и на другие направления маркетинга, например PR.

Делайте коллаборации с другими компаниями, возможно из смежных отраслей. Публикуйте гостевые посты, проводите совместные мероприятия или интервью с экспертами.

Суть в том, что о вас должны заговорить, про вас должны узнать. Это способно помочь вам быстрее пройти “испытательный срок” поисковой системы.

4. Удобство сайта

Находятся ли в зоне риска сайты, не заботящиеся об удобстве пользователя? Определенно, да.

Я бы хотел выделить 3 проблемы, которые в совокупности или по-отдельности могут привести ваш ресурс к фильтрам поисковой системы Google.

Битые ссылки

Большое количество битых (неработающих) ссылок негативно сказывается на пользователе.

Переходя по такой ссылке человек оказывается на пустой странице с “Ошибкой 404”.

Второй негативный момент заключается в том, что поисковый робот также переходит по этим ссылкам и эти переходы ничего хорошего не дают

...впустую растрачивается краулинговый бюджет.

В общем, от битых ссылок нужно избавляться.

С одной стороны, можно поменять их на рабочие.

Другой вариант - это сделать 301 редирект на релевантную страницу.

В крайнем случае, можно такую ссылку просто удалить.

Как массово находить и удалять битые ссылки рассказывается в моей новой электронной книге.

Неадаптивный дизайн

Если ваш сайт все еще не имеет адаптивной верстки, вам грозит соответствующий фильтр (алгоритмический).

Наказание простое - вы начнете терять трафик мобильных пользователей. При этом, трафик с декстопов может не проседать.

Решение простое - сделать сайт адаптивным, чтобы и мобильные пользователи могли получать удовольствие от его посещения.

Даже если с вашим сайтом все в порядке, я советую сделать проверку адаптивности (Google) перейдя по этой ссылке

Порой, даже нормальные сайты не проходят проверку из-за неправильной настройки файла robots.txt.

Если это ваш случай, напишите об этом в комментариях и мы поможем решить проблему.

Долгая загрузка сайта

Долгая загрузка может привести к немилости Гугла. Вы увидите негативные последствия в виде проседания позиций.

Это может случиться как в мобильной выдаче, так и в декстопной.

Чтобы проверить скорость загрузки сайта, воспользуйтесь сервисом GTMetrix. Вполне нормально, если ваш он загружается в течение 3 секунд.

Хочу заметить, что здесь работает правило “Средней температуры по больнице”.

То есть, в некоторых нишах сайты грузятся дольше. В некоторых - быстрее. Google все это учитывает.

5. Мобильный редирект

Мобильный редирект - это когда пользователь переходит на страницу вашего сайта из поиска, а вы его перенаправляете на другой ресурс.

При этом, вы не делаете такого перенаправления для десктопных пользователей.

За это вы можете получить фильтр Google под названием“Мобильный редирект”. Это является разновидностью ручных санкций, о наличии которых вы можете узнать в Google Search Console.

Чтобы решить проблему, вам нужно убрать подобные редиректы с вашего сайта. Порой, причиной могут быть зараженные или взломанные скрипты, плагины.

6. Спам в микроразметке Гугл

Микроразметка контента позволяет Гуглу более точно понимать контент страницы, а вам - улучшить видимость сайта. Но помимо очевидных плюсов, могут быть и минусы.

Если вы, используя микроразметку прибегаете к спаму, на вас могут наложить соответствующий фильтр. Узнать об этот вы можете двумя путями.

Во-первых, вы можете получить сообщение в Google Search Console о том, что на вашем сайте обнаружен спам в разметке страниц.

Во-вторых, вы можете заметить, что расширенные результаты вашего сайта больше не появляются в результатах выдачи Гугла.

Чтобы выйти из данного фильтра проверьте все страницы на корректность разметки. Следуйте правилам поисковой системы.

Также, вы можете сделать проверку микроразметки Google с помощью специального инструмента.

7. Google Колибри (Hummingbird)

Многие ошибочно полагают, что “Колибри” - это фильтр поисковой системы Google. На самом же деле “Колибри” (Hummingbird на англ.) - это алгоритм поисковой системы Google.

Выше рассмотренные Panda, Penguin и RankBrain являются частью этого самого алгоритма.

Что делать, если сайт попал под фильтр Гугла (+ диагностика)

Во-первых, нужно знать, какие вообще могут быть последствия за неправильное продвижение:

  • Полноценный бан - это когда сайт полностью исключается из индекса поисковых систем
  • Пессимизация - это когда определенные страницы теряют свои позиции в поиске
  • Выборочное исключение - это когда из индекса выпадают некоторые страницы.

Во-вторых, нужно проверить сайт на санкции. Для этого нужно держать в голове простую мысль. А именно, что в природе существует 2 вида фильтров:

  • Ручные санкции Google
  • Алгоритмические санкции

Если на ваш ресурс наложили ручной фильтр, вы можете легко узнать об этом открыв Google Search Console. В этом случае появится сообщение в разделе "Меры, принятые вручную":

Определить алгоритмические фильтры Google гораздо сложнее. Здесь, в качестве симптомов могут служить:

  • Выпадение страниц из индекса (можно узнать, проверив количество страниц в индексе)
  • Понижение позиций по определенным или всем запросам
  • Плохая индексация “свежих” страниц.

В третьих, обязательно нужно принять меры для выхода из под фильтра.

С ручными санкциями все просто: в сообщении от поисковой системы вы узнаете причину наложения.

Например, если вам наложили фильтр из-за манипуляции ссылками, вы их удаляете.

Если удалить не получается, например у вас нет выхода на владельца этого ресурса, или это арендованные ссылки, вы используете Google Disavow Tool.

Многие думают, что после исправления ошибок нужно связаться со службой поддержки Google. На самом деле, вам просто нужно подать заявку на пересмотр в Google Search Console.

Не забудьте указать, какие именно ссылки вы отклонили.

Сложность выхода из под алгоритмических фильтров состоит в том, что вам нужно определить причину наложения. Здесь вам на помощь придет простая логика.

Если вы не закупаете ссылки, но контент на вашем сайте оставляет желать лучшего (дубли, некачественные материалы, переоптимизация), то скорее всего вы имеете дело с “Пандой”.

Чтобы выйти из под данного фильтра вам нужно сделать аудит контента. Вот краткое изложение этого процесса…

  • Спарсите все страницы своего сайта (Выгрузка из Google Analytics, XML карта и др.)
  • Разделите полученные страницы на 4 категории: 
    1. У которых частотность выше Х (значение по вашему усмотрению) и уникальный, качественный контент
    2. У которых частотность ниже Х и уникальный, качественный контент
    3. У которых частотность выше Х и НЕуникальный, НЕкачественный или Ворованный контент
    4. У которых частотность ниже Х и НЕуникальный, НЕкачественный или Ворованный контент
  • Страницы из 1 и 2 категории мы не трогаем. Страницы из 4 категории мы нещадно удаляем. Если на них ведут много ссылающихся доменов, или они являются сервисными страницами, мы можем закрыть их от индексации, использовать canonical и так далее. Но большую часть мы все равно удалим. Страницы из 3 категории мы переписываем, делая контент уникальным и качественным. После снятия фильтра есть шанс получить по ним позиции.

После исправления всех недочетов имеет смысл запросить переиндексацию страницы через Google Search Console.

Также, люди часто спрашивают, есть ли онлайн сервисы для проверки на наличие фильтров Google.

Такие сервисы есть, и один из них - Fruition. Из минусов - сервис на английском и вам придется дать ему доступ к Google Analytics. Из плюсов - вы можете сделать до 2 проверок бесплатно.

Послесловие...

Итак, теперь вы узнали:

  • Как не попасть под фильтры поисковой системы Google
  • Что делать, если это уже случилось.

Если вы считаете, что данная статья была полезна, или что она может принести пользу кому-то еще - поделитесь ею сделав репост в социальных сетях.

"Буду рад, если вы в комментариях поделитесь своими мыслями ..."

Газиз Исмаил

Автор SEOVELVET

Поделитесь:
  •  
  •  
  •  
  •  
  •  
  •  

Один комментарий

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

13 − 11 =