Статьи

Покажите это своему SEO. Что не так с Screaming Frog SEO Spider

Меня зовут Павел Кондрашов, я ведущий SEO-менеджер компании i-Media. Мы помогаем компаниям находить клиентов через поиск и следить за тем, чтобы их сайт приносил продажи. В этой статье я расскажу вам, как я обнаружил неспособность Screaming Frog эмулировать ботов Яндекса. Материал будет полезен как новичкам, так и опытным специалистам.

Слишком много пустых тегов

При парсинге сайта клиента я обнаружил необычно большое количество пустых тегов заголовков на страницах, которые следует закрыть от индексации. Я стал думать, с чем это может быть связано. Подозрение пало на robots.txt.



Пустые теги

На скриншоте видно, что пустых тегов чуть меньше 50%, что кратно норме.

С помощью Вебмастера и служебного файла я проверил, учитывает ли программа нужную директиву. Гипотеза не подтвердилась, файл оказался верным, но проблема не исчезла.

Проверка файла

Потом я предположил, что при разборе у меня файл игнорировался во включенной лягушке. Но и здесь все было в порядке.

Проверка файла

На скриншоте видно, что программа при парсинге учитывает роботов, а значит проблема не в выбранной настройке

Тогда мне пришла идея — сравнить, какой юзер-агент в robots.txt сайта содержит закрывающую директиву, а какой юзер-агент эмулирует Frog. Оказалось, что в robots.txt директива есть только для пользовательского агента бота Яндекса, а в бота Screaming Frog Google. Для проверки гипотезы поменял гугл-бота на яндекс-бота, запустил парсинг, но страницы остались.

Проверка файла

Все оказалось гораздо интереснее

На этом идеи закончились. Я связался с коллегами, но раньше никто с такой проблемой не сталкивался и они посоветовали мне сделать то, что я уже опробовал и не сработало. Тогда я решил сравнить список ботов, указанный в Справке Яндекса, со списком в Screaming Frog. Они были одинаковыми. Потом я сравнил версии, так как думал, что лягушка не последняя. Но нет.

После некоторого времени размышлений возникла гипотеза о неспособности Screaming Frog эмулировать ботов Яндекса. Это означало бы, что самый популярный и известный инструмент SEO не так универсален.

Пользовательский агент в Справке Яндекса

Пользовательский агент в Справке Яндекса полностью совпал с указанным в Screaming Frog

Чтобы проверить гипотезу, я добавил в Screaming Frog собственный файл robots.txt. Он содержал директиву, которая блокировала индексацию страницы для всех пользовательских агентов. Все заработало, страницы перестали попадать в Screaming Frog.

страницы отсутствуют

И наконец страницы исчезли

Яндекс бот 1:0 Кричащая Лягушка

Этот случай выявил неспособность Screaming Frog эмулировать ботов Яндекса, а значит, аналитикам и оптимизаторам следует внимательно относиться к возможным ограничениям инструментов и проверять полученные данные в Яндекс Мастере. Только так можно обеспечить точность результатов и гарантировать эффективные меры по улучшению производительности веб-ресурсов.


Подборка статей о продвижении сайта в интернет. Обучение востребованным профессиям в сфере IT. Маркетинг. Анализ рынка. Полезные секреты проведения рекламных кампаний. Подпишитесь на нас в социальных сетях, что бы не пропустить важное.

Информация для Вас была полезна?
0
0
0
0
0
0
0

Похожие статьи

Кнопка «Наверх»