Что изучаем?
В любом проекте некоторые страницы могут перестать приносить трафик из поисковиков. Общая посещаемость при этом может не только не измениться, но и вырасти за счет новых страниц. Но с проблемой стоит бороться. Каждая такая страница — недополученная прибыль с одной стороны и возможный симптом более серьезной угрозы с другой.
Наша задача — выявить проблемные страницы, определить причины уменьшения трафика и устранить их. Это по силам любому, кто хоть раз сталкивался с сервисами для анализа сайтов.
Чек-лист
1. Поиск url, которые перестали давать трафик
Выгружаем отчет по страницам входа за последний месяц:
- За один раз анализируем только одну поисковую систему
- Выбираем линейный список отображения информации
- Сохраняем полученный отчет в эксель-таблицу
Увеличиваем период отчета (например, ставим 12 месяцев):
- Повторяем действия из предыдущего пункта
- Исключаем из отчета страницы со слишком низким трафиком – меньше 25 визитов для маленьких проектов и 50 для средних
Сравниваем, какие юрл есть в годовом, а в отчете за месяц отсутствуют
- Сделать это можно в экселе или используя онлайн-сервис https://bez-bubna.com/free/compare.php (бесплатно, без регистрации)
Повторяем все действия для второй поисковой системы.
2. Ищем причины потери трафика и исправляем ошибки
Проверяем, есть ли технические ошибки:
- Смотрим ответ сервера, который возвращает система в Screaming Frog или в парсере от Visual SEO Studio
- Анализируем статус-коды и исправляем ошибки
Смотрим, не стоит ли случайный запрет индексации страниц (в этой же таблице):
- Не заблокирована ли страница в robots.txt
- Не стоит ли мета-тег noindex
- Совпадает ли канонический url с фактическим
- Проверьте, нужны ли обнаруженные запреты и избавьтесь от лишних
Анализируем контент:
- Содержит ли контент ответ на пользовательский запрос?
- Достаточен ли объем контента, чтобы дать полный ответ на этот запрос?
- Не является ли эта страница полным или частичным дублем другой?
- Соблюдены ли базовые технические требования к оптимизации?
- Не соответствует ли страница сезонному или событийному трафику?
- Улучшаем и актуализируем контент либо удаляем дубли
Проверяем наличие страниц в индексе:
- Ищем адрес страницы со специальным оператором перед ним: info: в Google и url: в Яндексе
- Если страницы в индексе нет, помогаем поисковикам ее найти:
- Яндекс: https://webmaster.yandex.ru/site/indexing/reindex/
- Google: https://www.google.com/webmasters/tools/submit-url
Кейс
Проведем аудит страниц, потерявших поисковый трафик, для интернет-магазина sapsport.ru. Наша цель — найти такие страницы и узнать причины возникновения проблемы.
Анализировать начнем со страниц, которые потеряли свой трафик в Яндексе. Для этого выгрузили два отчета по страницам входа: за месяц и за год. После этого почистили годовой список от страниц со слишком низким трафиком. Это многостраничный интернет-магазин, поэтому не учитываем страницы с годовым трафиком меньше 50 визитов.
Далее сравниваем оба списка на https://bez-bubna.com. Выбираем отобразить различие между списками. В результате получаем 22 страницы, которые есть только в годовом списке. С ними мы и будем работать дальше.
Устанавливаем Screaming Frog или парсер от Visual SEO Studio (у нас Screaming Frog) и анализируем выявленные проблемные страницы. Для двух страниц сервис показал ошибку 404. Это значит, что они удалены. Стоит проверить, сделано это специально или случайно. Если случайно — нужно их восстановить в ближайшее время, пока они не выпали из индекса окончательно.
Анализируем оставшиеся 20 страниц. Они не заблокированы в файле Robots.txt, фактический и канонический url совпадают.
На анализе контента «провалилось» большинство страниц. Явных проблем не было только у одной, и она отображается в поисковой выдаче. На остальных не было кнопок целевого действия, текста, или вообще появлялась ошибка «товар недоступен». Эти страницы нужно улучшать.
Повторяем все эти действия и для поиска в Google. На https://bez-bubna.com/ обнаружилось 18 проблемных страниц, все они доступны. У 17 из них канонический url отличается от фактического. У последней из проблемных страниц неструктурированный текст и не проставлены основные мета-теги.
Итоги
Выявленные страницы однозначно нуждаются в доработке, чтобы вернуть трафик из поисковиков.
Выводы и рекомендации
Найти и проанализировать страницы, которые потеряли свой трафик, под силу даже человеку далекому от SEO. Но легко это делать только с помощью специальных сервисов (bez-bubna.com и Screaming Frog или парсер от Visual SEO Studio), вручную проводить весь анализ практически нереально. Не запутаться и ничего не забыть во всех пунктах поможет наш чек-лист.