Алгоритмы поисковых систем-2021: к чему готовить сайты?

01.02.2021

Прошлый год для специалистов по продвижению выдался непростым. Google дважды существенно потряс выдачу – в мае и декабре. Эти апдейты привели к просадке части сайтов и заставили всерьез взяться за контент, ведь все чаще начали звучать такие термины, как экспертность материалов и их авторов. Яндекс, в свою очередь, вводит анонсированный еще в декабре 2019 алгоритм «Вега», и снова, среди обещанных 1500 улучшений поиска, звучит слово «экспертность».

Но непростой 2020й остался позади, можно ли теперь вздохнуть спокойнее? А вот и нет! SEO в 2021 проще не станет. К чему же готовиться?

Яндекс YATI

Запущенный практически под Новый год, этот алгоритм назван Яндексом «наиболее значимым событием для поиска за 10 лет». Его название YATI расшифровывается, как Yet Another Transformer with Improvements, что в переводе с английского означает «Еще один трансформер с улучшениями».

Что такое YATI простым языком? Его задача – точнее понимать то, какая информация в Сети является наиболее релевантной запросу пользователя. Теперь Яндекс намного лучше работает со смыслом поискового запроса, для чего ему нужно более глубоко анализировать текст.

В самом начале статьи мы говорили об экспертности – и вот, сейчас этот критерий оценки контента страниц сайта стал еще актуальнее. Экспертные тексты, дающие наиболее полный ответ на пользовательский поисковый запрос, еще чаще станут попадать в ТОП.

Несколько «фишек» работы трансформеров YATI

  • работа не только с заголовками и запросами – YATI умеет оценивать длинные тексты
  • алгоритм учитывает порядок слов, контекст, возможное влияние слов друг на друга
  • в YATI заложен «механизм внимания», который способен выделить наиболее значимые фрагменты текста.

Как же это выглядит на практике? Теперь, если пользователь запрашивает поиск билета на самолет из Москвы во Владивосток, то поисковик сразу понимает три момента: что нужно именно во Владивосток, а не наоборот, и нужны именно билеты (а не, скажем, маршрут по дорогам) и именно на самолет.

Google Core Web Vitals

В мае 2021 года Google обещает ввести новый алгоритм ранжирования, который будет учитывать так называемые «сигналы восприятия страницы». Ранее был введен такой фактор, как «опыт страницы», анализирующий поведение пользователей, ранее посещавших страницу. И, если Google считает, что посетителям не нравится сайт, то такой сайт не может находиться высоко в результатах поиска.

Чем же отличается «опыт» от «восприятия»? Google будет собирать и анализировать такую информацию о странице, как скорость загрузки, стабильность содержимого, интерактивность, безопасность, мобильный адаптив, наличие и количество рекламы. Все это в комплексе и будет формировать «впечатление». Из перечисленной информации стоит остановиться на «стабильности содержимого», поскольку все остальное должно быть понятно и без объяснений. Так вот: если пользователь случайно нажимает на какой-либо интерактивный элемент страницы по причине того, что содержимое «перескочило» в момент клика – Google сочтет это очень плохим сигналом. (а теперь вспоминаем те сайты, где рекламные баннера или кнопки/формы так и подставляются под курсор для клика)

Теперь чуть более техническим языком о Core Web Vitals

В его основе – три показателя.

Largest Contentful Paint (LCP) – этот показатель определяет скорость загрузки страницы сайта и ее крупных визуальных элементов (баннеров, текстовых блоков, видео).

  • Хорошо – до 2,5с. Плохо – более 4с.

First Input Delay (FID) – интерактивность сайта, то есть, насколько быстро страница становится доступной к взаимодействию с пользователем после загрузки.

  • Хорошо – до 100мс. Плохо – более 300мс

Cumulative Layout Shift (CLS) – скорость визуальной стабилизации, то есть насколько быстро все элементы страницы становятся на свои места. Нередко странице требуется время, чтобы все элементы ее макета встали на свои места. Именно это время и измеряется в данном случае.

  • Хорошо – меньше 0,1 с. Плохо – более 0,25

Но при этом!

Google заявляет, что страницы «с наилучшей информацией в целом, даже если некоторые аспекты восприятия страницы не соответствуют требованиям» будут ранжироваться хорошо. То есть – снова-таки – контент, его полезность и экспертность, оказывается выше остальных факторов.

Итоги, или Как меняется выдача в поиске в условиях действия новых алгоритмов?

Стоит ли продолжать заниматься продвижением сайтов, прописывать метатеги и добывать обратные ссылки на сайт? Несмотря на попытки в очередной раз похоронить SEO (продолжающиеся, к слову, из года в год уже очень давно), новый алгоритм, как и все предыдущие и последующие, не отменяет существовавшие до него факторы ранжирования в поиске, а дополняют их.

Что это значит? То, что ко всем проводимым ранее работам по внутренней и внешней оптимизации сайтов нужно добавить еще больше усилий по работе с текстами.

  • лучше прорабатывать семантику с использованием максимально возможного количества LSI-фраз, а также поисковых подсказок
  • структурировать тексты заголовками с использованием ключевых запросов, в том числе LSI
  • экспериментировать (да, постоянно экспериментировать) с title, description, не только для улучшения позиций, но и в борьбе за CTR
  • постоянно следить за скоростью сайта и принимать неотложные меры, если скорость не находится хотя бы в «оранжевой» зоне Page Speed теста
  • анализировать поведенческие факторы. Их влияние станет еще более ощутимым. Страницы, которые не привлекают пользователей, нужно оптимизировать, а потерявшие актуальность – удалять.
Нажмите для звонка
+7 (499) 677-5629
Консультации по решению