Что изучаем?

В любом проекте некоторые страницы могут перестать приносить трафик из поисковиков. Общая посещаемость при этом может не только не измениться, но и вырасти за счет новых страниц. Но с проблемой стоит бороться. Каждая такая страница — недополученная прибыль с одной стороны и возможный симптом более серьезной угрозы с другой.

Наша задача — выявить проблемные страницы, определить причины уменьшения трафика и устранить их. Это по силам любому, кто хоть раз сталкивался с сервисами для анализа сайтов.

Чек-лист

1. Поиск url, которые перестали давать трафик

Выгружаем отчет по страницам входа за последний месяц:

  • За один раз анализируем только одну поисковую систему
  • Выбираем линейный список отображения информации
  • Сохраняем полученный отчет в эксель-таблицу

Увеличиваем период отчета (например, ставим 12 месяцев):

  • Повторяем действия из предыдущего пункта
  • Исключаем из отчета страницы со слишком низким трафиком – меньше 25 визитов для маленьких проектов и 50 для средних

Сравниваем, какие юрл есть в годовом, а в отчете за месяц отсутствуют

  • Сделать это можно в экселе или используя онлайн-сервис https://bez-bubna.com/free/compare.php (бесплатно, без регистрации)

Повторяем все действия для второй поисковой системы.

2. Ищем причины потери трафика и исправляем ошибки

Проверяем, есть ли технические ошибки:

  • Смотрим ответ сервера, который возвращает система в Screaming Frog или в парсере от Visual SEO Studio
  • Анализируем статус-коды и исправляем ошибки

Смотрим, не стоит ли случайный запрет индексации страниц (в этой же таблице):

  • Не заблокирована ли страница в robots.txt
  • Не стоит ли мета-тег noindex
  • Совпадает ли канонический url с фактическим
  • Проверьте, нужны ли обнаруженные запреты и избавьтесь от лишних

Анализируем контент:

  • Содержит ли контент ответ на пользовательский запрос? 
  • Достаточен ли объем контента, чтобы дать полный ответ на этот запрос?
  • Не является ли эта страница полным или частичным дублем другой?
  • Соблюдены ли базовые технические требования к оптимизации?
  • Не соответствует ли страница сезонному или событийному трафику? 
  • Улучшаем и актуализируем контент либо удаляем дубли

Проверяем наличие страниц в индексе:

Кейс

Проведем аудит страниц, потерявших поисковый трафик, для интернет-магазина sapsport.ru. Наша цель — найти такие страницы и узнать причины возникновения проблемы.

Анализировать начнем со страниц, которые потеряли свой трафик в Яндексе. Для этого выгрузили два отчета по страницам входа: за месяц и за год. После этого почистили годовой список от страниц со слишком низким трафиком. Это многостраничный интернет-магазин, поэтому не учитываем страницы с годовым трафиком меньше 50 визитов.

Далее сравниваем оба списка на https://bez-bubna.com. Выбираем отобразить различие между списками. В результате получаем 22 страницы, которые есть только в годовом списке. С ними мы и будем работать дальше.

Устанавливаем Screaming Frog или парсер от Visual SEO Studio (у нас Screaming Frog) и анализируем выявленные проблемные страницы. Для двух страниц сервис показал ошибку 404. Это значит, что они удалены. Стоит проверить, сделано это специально или случайно. Если случайно — нужно их восстановить в ближайшее время, пока они не выпали из индекса окончательно.

Анализируем оставшиеся 20 страниц. Они не заблокированы в файле Robots.txt, фактический и канонический url совпадают.

На анализе контента «провалилось» большинство страниц. Явных проблем не было только у одной, и она отображается в поисковой выдаче. На остальных не было кнопок целевого действия, текста, или вообще появлялась ошибка «товар недоступен». Эти страницы нужно улучшать.

Повторяем все эти действия и для поиска в Google. На https://bez-bubna.com/ обнаружилось 18 проблемных страниц, все они доступны. У 17 из них канонический url отличается от фактического. У последней из проблемных страниц неструктурированный текст и не проставлены основные мета-теги.

Итоги

Выявленные страницы однозначно нуждаются в доработке, чтобы вернуть трафик из поисковиков.

Выводы и рекомендации

Найти и проанализировать страницы, которые потеряли свой трафик, под силу даже человеку далекому от SEO. Но легко это делать только с помощью специальных сервисов (bez-bubna.com и Screaming Frog или парсер от Visual SEO Studio), вручную проводить весь анализ практически нереально. Не запутаться и ничего не забыть во всех пунктах поможет наш чек-лист.

Алексей Трудов
Основатель сервиса bez-bubna.com и автор блога alexeytrudov.com,
alexeytrudov.com

Понравился кейс? Поделитесь им со своими друзьями!

Работа в команде и с клиентами
не должна быть сложной

До внедрения Ровертаск

После внедрения Ровертаск

Ровертаск — простой и удобный способ вести обсуждения и фиксировать задачи

*мы не собираем данные E-Mail адресов, не рассылаем спам