Гугл и Яндекс постоянно улучшают алгоритмы по формированию поисковой выдачи, чтобы бороться с некачественным и нерелевантным контентом. Раньше пользователь мог часами искать ответ на свой вопрос, получая лишь бесконечное количество ненужной информации. Сейчас, благодаря многочисленным модернизациям, этот процесс ускорился в разы.
___________
В этой статье мы расскажем о том, какие алгоритмы поиска есть у самой крупной поисковой системы и как они влияют на выдачу. Статья будет полезна тем владельцам интернет-ресурсов, которые хотят правильно провести оптимизацию своего сайта. Мы поможем улучшить позиции, избежав попадания под санкции.
Для чего нужны алгоритмы Гугл
Название | Дата выпуска | Цель |
Гугл Панда (Google Panda) | 24.02.2011 г., проводятся регулярные апдейты | Исключить из топа результатов поиска источники с неуникальными или некачественными материалами |
Гугл Пингвин (Google Penguin) | 24.04.2012 г., сейчас работает в режиме реального времени | Понизить позиции ресурсов с неестественными или спамными ссылками |
Колибри (Hummingbird) | 30.08.2013 г. | Развить у поисковой машины понимание смысла запроса, чтобы сформировать более релевантную страницу выдачи |
Антипиратский апдейт (Google’s Pirate Update) | Август, 2012 г. | Наложить санкции на веб-страницы, содержащие нелегальный контент |
Голубь (Pigeon) | 24.07.2014 г. | Провести более качественное ранжирование, опираясь на сведения о геолокации пользователя |
Mobile Friendly Update | 21.04.2015 г. | Продвинуть в выдаче веб-порталы, адаптированные под мобильные устройства |
Фред (Fred) | 08.03.2017 г. | Очистить страницу результатов от явно коммерческих сайтов, перенасыщенных прямой и контекстной рекламой, слишком оптимизированными текстами |
RankBrain | начало 2015 года | Улучшить понимание неоднозначных и низкочастотных запросов |
Google Panda
Анализирует сайты по следующим критериям: сначала проверяет контента на уникальность, потом на наличие дубликатов одного и того же текста на разных страничках ресурса, затем на переспам — излишнее наполнение ключевыми словами и фразами.
Чтобы не попасть под фильтр, необходимо заботиться об оригинальности размещаемых материалов. Лучше всего, если уникальность будет превышать показатель в 95%. С SEO-оптимизацией тоже стоит быть поаккуратнее: рекомендуемая частота ключевых слов — один запрос на 300-500 знаков. Избегайте дублей или закрывайте их от индексациии, в крайнем случае настраивайте перенаправление с одних страниц на другие (редирект).
Google Penguin
Под угрозой находятся веб-порталы, использующие неестественные или просто низкосортные ссылки. Например, такие, которые ведут с не подходящих по тематике или отбракованных «Пандой» сайтов.
Чтобы не попасть под санкции Гугл, проверяйте ссылочную массу на качество. Для этого можно воспользоваться услугами веб-мастеров или специальных сервисов-анализаторов. От спамных и некачественных ссылок смело избавляйтесь. Предпочтение лучше отдать естественному ссылочному весу, причем рекомендуется использовать безанкорные ссылки: их размещение выглядит более правдоподобным для поисковых машин.
Hummingbird
Hummingbird (она же «Колибри») — это основной инструмент, который объединяет в себе все остальные алгоритмы Google. Благодаря ему выдача результатов формируется таким образом, что учитываются не только страницы с точными вхождениями ключевых слов, но те, что содержат синонимы и другие подходящие по смыслу теги.
Это можно использовать в своих интересах. При написании статей ориентируйтесь не на роботов, а на людей. Поскольку синонимы поисковиками тоже котируются, чистое вхождение ключей необязательно. Ищите подходящие синонимы, применяйте LSI-копирайтинг.
Google’s Pirate Update
В соответствии с принятым в 1998 году законом об авторских правах, Гугл ввел алгоритм, названный «антипиратским обновлением». Апдейт обязал не ранжировать источники, которые публикуют пиратский контент или объясняют, как его найти и скачать.
Pirate Update проверяет и рекламную, и органическую выдачи. Порталы, нарушающие авторские права, не смогут занять места в ТОП-е даже на коммерческой основе. Пожаловаться на нелегальный контент можно здесь.
Согласно местному законодательству, с 2017 года пиратские площадки не только всячески игнорируются поисковыми системами, но и блокируются.
Pigeon
«Голубь» умеет определять местоположение пользователя и выдавать результаты на основе этих данных. Допустим, вам нужно найти ресторан итальянской кухни. Google отфильтрует только те заведения, которые находятся в вашем городе и районе.
Для повышения качества ранжирования по геолокации, компании привлекают асессоров — специальных людей, которые изучают веб-страницы в выдаче и сличают местонахождение пользователя с заявленным на сайте расположением компании. Зачастую именно асессоры в ответе за релевантность результатов локального поиска.
Google’s Mobile Friendly Update
По статистике, на данный момент большинство поисковых запросов поступает с мобильных устройств. Такие запросы давно обогнали десктопные по количеству, а мобильный интерфейс перестал быть приятным дополнением для хорошего юзабилити, превратившись в необходимость. Вот почему Google придумал алгоритм, продвигающий в верх списка мобайл-френдли ресурсы.
Джон Мюллер, сотрудник компании, рассказал о том, что Гугл запустил mobile-first индекс и вскоре начал оповещать всех сайтовладельцев об условиях индексации.
Fred
В интернете немало сайтов, которые несут куда больше пользы для их владельцев, чем для посетителей. Обычно такие сервисы содержат огромное количество рекламы, кричащих заголовков и минимум полезной информации. Для отбраковывания такого рода страничек путем наложения санкций Гуглом и был придуман Fred.
Для того, чтобы ненароком не попасть под санкции google, постарайтесь не злоупотреблять рекламой и ограничить исходящую ссылочную массу.
RankBrain
Этот алгоритм представляет собой ИИ, обучающийся на пользовательских запросах. Он умеет трактовать незнакомые или двусмысленные сочетания, основываясь на общем контексте запроса.