Любой, кто занимается Google SEO, знает, что инструменты — это рычаг эффективности. Возьмем, к примеру, Screaming Frog: этот краулер может выполнить объем работы, на который у человека уходит 8 часов, менее чем за 20 минут. Он сканирует все URL вашего сайта и точно выявляет от 80 до 120 типичных проблем SEO (таких как битые ссылки 404, дублирующиеся заголовки, изображения без атрибута Alt и т. д.).
В этой статье мы проведем вас от установки и настройки до использования данных, чтобы превратить Screaming Frog в ваш «SEO-микроскоп».

Table of Contens
ToggleУстановка и базовые настройки
Установка Screaming Frog кажется простым делом в стиле «нажми кнопку Далее», однако пользователи сообщали, что из-за игнорирования системной совместимости версия для Mac работала медленно, а скорость сканирования была на 40% ниже нормы.
Также бывали случаи, когда из-за произвольной настройки глубины сканирования небольшой сайт не удавалось полностью просканировать даже за 2 часа.
Подготовка перед установкой
1. Совместимость системы
Screaming Frog поддерживает Windows 10/11 (64-бит) и macOS 10.15 или выше. Если на вашем компьютере установлена Windows 7 или macOS 10.14, установщик выдаст сообщение «несовместимо», а принудительный запуск может привести к сбою (по статистике: частота сбоев у пользователей Win7 составляет около 35%).
2. Проблемы с правами доступа
- Windows: Рекомендуется устанавливать от имени администратора (правой кнопкой мыши на установщик → «Запуск от имени администратора»). В противном случае данные сканирования могут не сохраняться из-за нехватки прав (типичная ошибка: «Не удается сохранить файл лога»).
- Mac: Вам не нужно отключать System Integrity Protection (SIP), но при первом запуске может потребоваться нажать «Все равно открыть» в разделе «Системные настройки → Защита и безопасность» (около 20% пользователей Mac сталкиваются с трудностями на этом этапе).
3. Сетевое окружение
Перед сканированием отключите прокси-серверы и VPN. Если задержка локальной сети превышает 200 мс, скорость сканирования упадет на 50% (факт: при задержке 200 мс сканируется 10 URL/сек, при 50 мс — 25 URL/сек).
Официальная установка
Для Windows
- Посетите официальный сайт Screaming Frog (www.screamingfrog.co.uk) и нажмите Download Free Version (бесплатной версии достаточно для малых и средних сайтов).
- Выберите Windows Installer и запустите его двойным щелчком после загрузки.
- Следуйте инструкциям по выбору пути установки (рекомендуется диск C по умолчанию) и нажмите Install.
- После установки на рабочем столе появится иконка зеленого паука; дважды щелкните по ней, чтобы открыть программу.
Для macOS
- Выберите macOS DMG на официальном сайте для загрузки.
- Дважды щелкните по файлу .dmg и перетащите иконку Screaming Frog SEO Spider в папку Applications.
- При первом запуске, если система сообщит, что разработчик не подтвержден, перейдите в «Защита и безопасность» и нажмите «Все равно открыть».
4 базовые настройки
После установки при первом запуске необходимо настроить параметры «паука» (Spider).
Ошибки в настройках могут сделать все последующие данные сканирования бесполезными.
User Agent (Пользовательский агент)
- Роль: Сообщает серверу сайта, «кто я такой». User Agent робота Google выглядит так: «Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)».
- Как настроить: Нажмите в меню Configuration → Spider, выберите вкладку User Agent и установите значение Googlebot (по умолчанию стоит Screaming Frog).
- Почему это важно: Некоторые сайты блокируют краулер Screaming Frog по умолчанию. Использование Googlebot позволяет имитировать реального робота Google и получать более достоверные данные (успешность сканирования одного интернет-магазина выросла с 65% до 92% после смены агента).
Глубина сканирования (Crawl Depth)
- Определение: Количество уровней ссылок, по которым пройдет паук от главной страницы (например: Главная → Категория → Товар — это 3 уровня).
- Рекомендации:
- Малые/средние сайты (≤1000 страниц): установите 5 уровней (охватывает >90% важных страниц).
- Крупные сайты (>1000 страниц): установите 10 уровней, но используйте вместе с ограничением количества URL, чтобы избежать бесконечного сканирования.
Ограничение количества URL (Max URLs to Crawl) •
- Роль: Предотвращает бесконечную работу программы на сайтах с огромным количеством ссылок (форумы или страницы с бесконечной прокруткой).
- Настройка: В Configuration → Spider отметьте Limit number of URLs to crawl и введите число (рекомендуется 5000–10000 для малых сайтов).
Исключение параметров (Exclude Parameters)
- Проблема: URL многих сайтов содержат лишние параметры (например, ?utm_source=…), которые не меняют контент, но программа воспринимает их как разные URL, что приводит к дублированию данных.
- Настройка: Нажмите Configuration → Exclude и введите параметры, которые нужно фильтровать.
Проведение «тестового сканирования» главной страницы
Не начинайте сканирование всего сайта сразу. Введите URL главной страницы и проведите небольшой тест (ограничение до 100 URL), чтобы проверить:
- Собраны ли основные страницы? Проверьте вкладку Internal на наличие разделов «О нас» или «Контакты».
- Нет ли дублирующихся URL? Проверьте вкладку URL, не попадают ли туда версии одной страницы с разными параметрами.
- Есть ли ошибки 404? Проверьте коды ответов (Response Codes) на наличие удаленных страниц.
Быстрый запуск базового сканирования
Многие думают, что нужно просто «нажать Старт», но на деле 30% пользователей получают неверные данные из-за игнорирования деталей.
3 проверки перед началом
1. Подтверждение базовых настроек
- User Agent: Должен быть Googlebot.
- Глубина сканирования: Соответствует размеру сайта.
- Исключение параметров: Лишнее отслеживание удалено.
2. Проверка стабильности сети
- Задержка должна быть менее 100 мс. Пожалуйста, отключите VPN во время работы.
3. Доступность целевого сайта
- Откройте сайт в браузере, чтобы убедиться в отсутствии блокировки (ошибка 403).
4 шага к результату за 10 минут
1. Ввод целевого URL
- Формат: Обязательно вводите полный URL с http:// или https://.
2. Установка ограничений
- Включите лимит URL, чтобы избежать бесконечных циклов сканирования.
3. Нажатие Start и мониторинг
- Следите за прогресс-баром и скоростью сбора данных.
4. Исправление проблем в процессе
- Если программа зависла, проверьте сеть или нажмите Stop, а затем снова Start.
Как читать отчеты SEO (6 ключевых пунктов)
Данные не лгут. Важнейшая информация, влияющая на ваш рейтинг в Google, сосредоточена в этих 6 отчетах:
Отчет по кодам ответа (Response Codes)
Если код статуса неверный, поисковый робот может полностью проигнорировать вашу страницу.
- 200 (OK): Должно быть более 85%.
- 404 (Битые ссылки): Необходимо немедленно исправить или настроить 301-редирект.
Структура и длина URL
Чем длиннее URL, тем меньше шансов на полное сканирование. Старайтесь делать их короткими и понятными.
Отчет по тегам Title
Заголовок — это суть того, как Google понимает тему страницы. Дубли или плохие заголовки напрямую снижают позиции.
Отчет Meta Description
Напрямую на позиции не влияет, но влияет на кликабельность (CTR) в поиске.
Отчет по тегам H1
Google использует H1 для понимания главного контента страницы. Один тег H1 на страницу — это идеал.
Отчет по атрибутам Alt изображений
Отсутствие текста Alt лишает вас трафика из поиска по картинкам.
Проверка внутренних ссылок
Страницы без внутренних ссылок (сиротские страницы) индексируются на 60% реже.
Битые внутренние ссылки
Ссылки внутри сайта, ведущие на удаленные страницы (404). Пользователь уйдет, а робот будет реже заходить на сайт.
Сиротские страницы (Orphan Pages)
Страницы, на которые не ведет ни одна внутренняя ссылка; Google сложно их найти.
Концентрация ссылочного веса
Слишком много ссылок на главной странице может «размыть» вес для других важных страниц, таких как статьи блога.
Помните, инструменты — это лишь помощники. Суть ранжирования Google всегда заключается в «контенте, который нужен пользователю».
Хотите, я покажу вам, как экспортировать результаты сканирования в Excel для создания автоматических отчетов?
“`






