Обновления алгоритмов ранжирования Google

Содержание:

Самый необычный год второго тысячелетия подходит к завершению. Помимо привычки бесконечно мыть руки и носить маски, а также месяцами видеться с коллегами только в онлайн-чатах, человечество пришло к эре новых алгоритмов ранжирования и появлению мощных и эффективных инструментов Google. Сегодня поговорим об этом подробнее.

Чем грозит мобайл маркетингу?

Каждые 1-2 года поисковая система Google обновляет алгоритмы ранжирования поисковых систем, повышая качество выдачи страницы, давая пользователям только актуальные и информативные ресурсы. Данные обновления необходимы для того, чтобы обеспечить высокий уровень контроля контента, которого в интернете с каждым днем становится все больше. В 2020 году была презентована новая составляющая алгоритм ранжирования Гугл – Core Web Vitals, которая начала полноценно работать летом 2021 года.

Обновления алгоритмов ранжирования Google

Подробнее о Core Web Vitals

Это основная составляющая алгоритма Google Page Experience, позволяющая адаптировать сайты под смартфоны, в которых нет предусмотренного производителем специальных блоков, ответственных за прием содержимого разных веб-ресурсов и HTTPS, а также условий безопасного просмотра.

По мнению экспертов, CWV – это новая возможность определения позиций сайтов Google. Основная цель – ранжирование ресурсов для обеспечения удобства взаимодействия с пользователями. Причем, новый алгоритм нацелен на реального человека, а не на веб-системы. Апдейт позволит анализировать большие объемы информации, гораздо масштабнее, нежели в предыдущей версии.

Принцип работы алгоритма

Зв скорость загрузки страницы отвечает показатель Largest Contentful Paint (LCP), который одним из самых важных считался и ранее. Однако этот нюанс для Google все еще остается первостепенным, ведь, чем быстрее загружается страница, тем комфортнее пользователю с ней работать. В том случае, если сайты будут грузиться долго, пользователю гораздо проще сменить браузер на более активный. Сегодня среднее оптимальное значение загрузки страницы колеблется в пределах от 2,5 до 4 секунд. Открывающиеся дольше сайты, автоматически опускаются в выдаче поисковиков.

First Input Delay (FID) определяет время, прошедшее с момента, когда посетитель впервые начал взаимодействие с сайтом: переход по ссылке, нажатие кнопки. Именно, когда браузер смог ответить на запрос клиента. Этот промежуток рассчитывается в миллисекундах, и веб-сайты стремятся к тому, чтобы скорость подобного взаимодействия была предельно возможной. В среднем на сегодняшний день данное значение колеблется в периоде от 100 до 300 миллисекунд. Все, что выше – плохой показатель.

На задержку отзыва могут влиять следующие причины:

  • сложность и объем информации, которую несет запрашиваемая страница;
  • возможности девайса, с которого происходит взаимодействие.

Последний алгоритм учитывает параметры именно первого взаимодействия с пользователем, поскольку задержка при нем и станет первым негативным впечатлением пользователя о работе веб-портала. Данная оценка и формирует картину функциональности и надежности ресурса. Чтобы устранить неприятность, сокращают время инициализации сайта и отменяют долгие задачи.

Третья составляющая – Cumulative Layout Shift, позволяющая визуализировать стабильность страницы, показывая, насколько синхронно происходит загрузка всех ее элементов. Случается так, что вы, читая контент, замечаете, как резко он сдвигается, и вы кликаете на выбранную ссылку, попадая не туда, куда метились мышкой. Тем самым, пользователю непреднамеренно навязываются ненужные подписки или предлагается купить не желаемый товар.

CLS проводит оценку того, как часто пользователи сталкиваются с данной проблемой при взаимодействии с разными сайтами. При этом, система подсчитывает и оценивает все «сдвиги», происходящие на протяжении времени работы конкретного сайта. Отличным результатом в данном случае является 0,1, от 0,25 – площадка требует обновления и корректировки.

Информация для веб-мастеров

Ежедневно компанией Google выпускается минимум одно изменение, направленное на улучшение работы поисковых систем. Большинство из них заметно помогает пользователю и справляется с поставленными задачами. Некоторые из этих изменений наиболее заметны и ощутимо повышают качество взаимодействия между сайтами и пользователями.

Эксперты компании Google проводят масштабную работу, сотрудничая с веб-мастерами, и давая им рекомендации к реагированию и действиям при выходе того или иного обновления. К примеру, перед выходом последнего, самого масштабного за небольшой промежуток времени, мы давали советы по его адаптации на протяжении нескольких месяцев.

Также ежегодно мы вносим перемены в алгоритмы поиска и системы, называя их «обновлением ядра». Они необходимы для обеспечения компетентного и комфортного авторского поиска и предоставления актуального контента пользователям по запросу.

Основная рекомендации по использованию обновлений от экспертов Google заключается в том, что менять изменения не нужно, сосредоточьтесь лучше на том, чтобы исправить само наполнение сайта и сделать максимум для повышения его позиций в выдаче.

Задайте себе ряд наводящих вопросов:

  • В состоянии ли ваш контент обеспечить пользователю максимум актуальной информации: статей, отчетов, исследований, аналитических данных и т.д.?
  • Содержание вашего контента полностью раскрывает тему?
  • Есть ли в ваших статьях и отчетах актуальная и проверенная информация, которая находится за гранью очевидности?
  • Копируете ли вы информацию с других источников или предоставляете потребителю, уникальный «вкусный» продукт?
  • Заголовок и тайтл страницы содержат ее резюмированное описание?
  • Есть ли в заголовках и тайтлах содержание, шокирующее пользователя?
  • Хотите ли вы усовершенствовать страницу, добавив дополнения типа «поделиться с другом» или «прокомментировать без модерации»?
  • Хотите ли вы, чтобы ссылка на вашу страницу фигурировала в тексте или под видео одного из популярных блогов и т.д.?

Также вы можете провести анализ того, чем отличается контент, представленный на вашей странице от того, который содержится на сайтах из ТОП-5 к выдаче. Создали вы эту страницу для того, чтобы удовлетворить интересы пользователей или просто манипулировать их мнением?

Задайте себе эти вопросы и спросите тех, кому доверяете, насколько он оценивают качество предоставляемой информации вашего сайта. Вы получите точную оценку и сможете организовать ряд мероприятий по улучшению вашего портала.

Проверка Core Web Vitals при работе с сайтом

Спецпрограмм для проверки работы сайтов пока не придумали. Однако анализ их действий можно произвести на других сайтах, вот некоторые из них:

  • Ведомостной, где собраны важные интернет-показатели. Данные можно узнать во вкладке «Улучшения», здесь же вы найдете характеристики, скомпонованные по группам страниц. Для отдельной ссылки лучше применить Page Speed Insights.
  • Lighthouse. Этот портал показывает недостатки сайта и дает советы по его улучшению. Открывается посредством консоли сайта.
  • PageSpeed Insights. Здесь проверяют FID, FCP, LCP и CLS, чтобы узнать инструкции по повышению оценок, увеличения скорости загрузки.
  • Screaming Frog. Позволяет узнать, отвечает ли сайт требованиям CWV, выявить проблемы и получить список страниц, над которыми необходимо поработать.
  • WebPageTest. Тестирует скорость загрузки порталов на каждом этапе, позволяет посмотреть видеозапись того, как грузится страница.

Обновления алгоритмов ранжирования Google

Повышение показателей веб-сайта: подходим к проблеме комплексно

Чтобы вывести портал в пресловутый ТОП-10 в выдаче, а также добиться соответствия апдейту Core Web Vitals, веб-разработчикам необходимо:

  • регулярно пользоваться AMP и CDN;
  • сократить количество обращений пользователей к базе данных;
  • оптимизировать функциональность сервера;
  • максимально сжать картинки на сайте посредством определенных программ;
  • найти проблемы с шаблонами и оптимизировать их работу и контент;
  • пользоваться исключительно качественным хостингом;
  • прописать габариты каждого из элементов верстки;
  • провести оптимизацию JavaScript-код посредством кэширования, чистки скриптов, сжатия;
  • не пользоваться редиректами (по возможности), поскольку их наличие отталкивает потенциальных клиентов.

Сколько времени требуется сайту для полного восстановления своих позиций в выдаче, если вы провели все перечисленные процедуры? Масштабные обновления поисковых алгоритмов осуществляются каждые пару месяцев. Потерявшие во время последнего обновления свои позиции сайты до следующего раза позиции восстановить не смогут. Если улучшать контент, то при следующем обновлении сайт может подняться в топе.

Важно понимать, что поисковые системы не воспринимают контент также, как человек. Вместо интересных фактов, к примеру, они ищут сигналы, на основании которых собираются данные о контенте и оценивается их релевантность.

Присоединяйся к DevEducation — стань востребованным специалистом и построй карьеру в IT!