Skip links

Три пункта, которые обязательно должны быть в плане SEO-аудита

Подготовка качественной SEO-отчётности – это непростая задача. В нашей отрасли так много противоречащих друг другу и устаревших советов, что во многих случаях оптимизаторы склонны фокусироваться на популярных терминах, а не действительно важных моментах.

За время своей работы в SEO я просмотрела сотни отчётов и часто сталкивалась с трудностями при разработке плана дальнейших действий по оптимизации сайта.

Но в этой статье мы поговорим о другом: о тех важных пунктах, которые обязательно нужно проверять во время SEO-аудитов, но большинство оптимизаторов этого не делает. Исходя из последних просмотренных мною отчётов, таких пунктов будет три.

  1. Завершающие слеши в URL

Одной из самых частых проблем со структурированием URL-адресов является отсутствие проверки того, работают ли ваши URL с завершающим слешем и без него.

Основные выводы:

  • Лучшей практикой является корректная работа обеих версий.
  • Google официально рекомендует настраивать переадресацию 301 с одной версии на другую, что можно делать даже в том случае, если обе версии работают.
  • Помимо случайного появления нерабочих ссылок (например, некоторые HTML-редакторы добавляют «/» в конец URL автоматически), это может привести к более низким позициям в ранжировании и потере трафика/конверсий (если другие сайты ссылаются на нерабочие версии страниц).

Для диагностики таких страниц можно использовать бесплатный Website Crawler от SEOchat. Как показала практика, он находит эти проблемы чаще, чем другие инструменты.

Вы также можете пропустить несколько случайно выбранных URL через инструмент Header Checker, чтобы посмотреть, работают ли они.

Стивен Кенрайт (Stephen Kenwright) из Branded3 предлагает следующую схему действий:

  • Настройте 301 редиректы с одной версии на другую через файл .htaccess.
  • Если это невозможно, используйте rel=canonical. Это также сократит риск дублирования контента [Примечание: это решение может использоваться только в том случае, когда обе версии страницы работают].
  • Будьте последовательны в своём выборе.
  1. Отсутствие подзаголовков

Раньше мы называли подзаголовки h2-h3 «семантической структурой» и рекомендовали использовать их для того, чтобы сделать ключевые слова более заметными.

Согласно руководству W3C по структуре HTML-документа, теги h1-h6 кратко описывают тему того раздела, к которому относятся и могут использоваться агентами пользователя для автоматического создания оглавления документа.

Других выгод от их использования на тот момент не было.

На сегодняшний день всё изменилось, поскольку использование тегов h2 и добавление в них ключевых слов помогает сайту попасть в блоки с ответами Google – так называемые «featured snippets».

Алгоритм, который отвечает за формирование и ранжирование блоков с ответами, меняется практически ежедневно. Поэтому попасть в них нелегко, но с помощью тегов подзаголовков сделать это проще.

Netpeak Spider – отличный инструмент для диагностики h-структуры сайта в целом. Сервис предоставляет подробный отчёт:

  1. Некачественный контент

Так называемый «thin content» (неинформативное содержимое, не имеющее ценности для пользователей; букв. «тонкий» контент) может значительно влиять на позиции сайта в поисковой выдаче.

Как определяется такой контент:

  • Малое количество оригинального содержимого на странице (обычно, параграф или два);
  • Отсутствие положительных сигналов (ссылки, клики/трафик, упоминания/репосты. Последний пункт также является индикатором вовлечённости пользователей).

Практически все оптимизаторы слышали о «тонком» контенте, но в отчётах этот пункт практически не встречается.

Почему? Этому есть две причины:

  • Такой контент сложно диагностировать;
  • Такой контент сложно объяснить (как убедить клиента со 100-страничным сайтом в необходимости инвестиций в улучшение существующего контента и консолидацию низкокачественных страниц?).

Наличие большого количества низкокачественнего контента на сайте может негативно сказаться на позициях ресурса в целом. Если краулеры поисковых систем находят большой процент такого содержимого на сайте, они могут решить, что сайт в целом также не имеет большой ценности. В итоге он может попасть под фильтр «Панда», который теперь является частью поискового алгоритма Google.

Так, директор Internet Marketing Ninjas Джим Бойкин (Jim Boykin) считает, что низкокачественный контент очень часто является причиной снижения позиций сайтов:

«Когда ваш сайт попадает под санкции, то практически всегда ответ о причинах звучит так: «У вас слишком много “тонкого” контента».

Именно по этой причине сайт может медленно, но верно, терять свои позиции в ранжировании Google. Однако диагностировать это очень сложно:

  • Google больше не сообщает об обновлениях, связанных с низкокачественным контентом;
  • Потеря позиций происходит постепенно, поэтому сложно выяснить, когда и почему это началось;
  • Страницы, теряющие позиции, могут быть лучшего качества, чем остальные страницы сайта. «Тонкий» контент не может ранжироваться вечно. При этом он начинает негативно влиять на те страницы, которые продолжают ранжироваться.

Как и в случае дублированного контента, эти пессимизации нельзя назвать санкциями. Даже если «тонкий» контент тянет ваш сайт вниз, это не санкции. Это часть деятельности Google, направленной на предоставление пользователям более качественных результатов поиска.

 

___

Редактор: Анна Бондарь

Источник: searchengines.ru