Фильтры Google

Почему Панда? Зачем Пингвин?
О фильтрах Google

Андрей Батурин,
Андрей Батурин

Андрей Батурин

Лидер всемирного цифрового поиска неутомимо борется с чистотой выдачи. Его фильтры существуют не сами по себе, а в составе сложных поисковых алгоритмов. За что и как наказывает Google, как приручить Панду и подружиться с Пингвином?

Panda

Впервые «Панда» была запущена в феврале 2011 года. Задачей алгоритма стал контроль качества сайтов, участвующих в ранжировании.

Как же поиск оценивает ресурсы? Учитываются следующие аспекты:

  • Качество размещенного на сайте контента: его уникальность, количество, полезность, новизна, грамотность. Там, где машинам не хватает квалификации, за дело берутся асессоры.
  • Поведенческие факторы. Система учитывает поведение пользователя на ресурсе, его удовлетворенность и отклик на контент.
  • Отсутствие дублированных страниц — плюс в понимании Гугла. Если фильтр выявил дубликаты (несколько страниц, оптимизированных по одному запросу; повторение одинакового контента), то стоит ждать пессимизации. Те же последствия возникнут при использовании копипасты.
  • Качественная проработка функционала ресурса, отсутствие проблем с юзабилити и скоростью загрузки страниц, привлекательный дизайн — все это засчитывается алгоритмом в пользу сайта. Если же владелец не позаботился о комфорте посетителей, его ждет заслуженная кара. Или если злоупотреблял навязчивой, закрывающей контент рекламой.
  • Умеренная оптимизация. Ранее мы писали про фильтры Яндекса и упоминали о Баден-Бадене. Так вот, аналог подобного фильтра имеется и в Google. Только он не является отдельным инструментом. Так что за переспамленные тексты есть риск впасть в немилость Панды. Поэтому нельзя напичкивать ключами тайтлы, description, alt, выделять их в текстах стронгами. Употребление ключевых фраз должно быть естественным, а не в духе SEO десятилетней давности.

Фильтр Гугла «Панда» наказывает не полной изоляцией ресурса и выпадением из выдачи, а снижением позиций сайтов с «нехорошим» контентом.

Фильтр Гугла Панда

Чтобы справиться с подобным негативом, необходимо совершенствовать ресурс. Какой-то одной меры, к примеру, замены текстов, будет явно недостаточно. Повышать качество сайта придется комплексно, с учетом всех названных факторов.

Penguin

Пингвина выпустили в свет в апреле 2012 года с четко обозначенной целью — бороться с некачественными, манипулятивными ссылками.

Что скрывается за черным или серым линкбилдингом? Это практически все известные способы искусственного увеличения веса ссылок:

  • Дорвеи, клоакинг;
  • Закупка и обмен массой;
  • Ссылки на нерелевантных или аффилированных сайтах;
  • Размещение спама на форумах и других площадках.

Пингвин — не тот фильтр, который удаляет сайты из выдачи. Обнаружив некачественную ссылку, он просто не учитывает ее при ранжировании страницы. Поэтому роста в выдаче, на который рассчитывал владелец или сеошник-линкбилдер, не происходит.

Фильтр Гугла Пингвин

Чтобы подружиться с фильтром Google Penguin, надо всего-то не вступать в порочащие сайт связи: не использовать серые схемы, покупной линкбилдинг. А если некачественная ссылочная масса все же имеется, ее необходимо удалить. Хотя лучше изначально разрабатывать стратегию продвижения так, чтобы сайт заработал хорошие и естественные ссылки благодаря своим характеристикам и качественному контенту.

Колибри

Настоящая птичка в природе уникальна тем, что может летать задом наперед. А Колибри Google, выпорхнувшая на волю в сентябре 2013 года, славится своим умением распознавать неочевидные пользовательские запросы. К примеру, забиваете вы в поиске фразу «Фильм, где человек выращивал картошку на другой планете», а Гугл в ответ — ссылку на «Марсианина». Ее аналогом в Яндексе выступает Палех, но он появился только в 2016.

Фильтр Гугла Колибри

Фильтром эту часть алгоритма назвать можно с большой натяжкой. Но о ней мы вспомнили, поскольку Колибри тоже влияет на ранжирование. В плюс веб-сайту засчитывается такой контент, который максимально раскрывает информацию по запросу пользователя.

— Как мы уже говорили в предыдущих статьях, подружиться с алгоритмами поисковых систем не сложно, играя по их правилам, без попыток хитрить и манипулировать. Надо всего лишь наращивать естественную ссылочную массу, создавать классный и полезный контент, заботиться о людях, которые приходят на ваш сайт.

Другие статьи по тегам

сайты продвижение поисковые системы

на эту тему

Голосовой поиск: как вести оптимизацию сайта
Фильтры Яндекса под микроскопом
Фильтры поисковиков: как обезопасить сайт
ТОП-10 классических стилей в веб-дизайне
Веб-дизайн 2018 года: тенденции и тренды
Заполняем метатеги на сайте правильно!