Механизм определения Google для спам-контента сложен. Иногда нарушающие правила страницы скрыты глубоко (например, страницы регистрации пользователей, старый тестовый контент) или из-за уязвимостей сторонних плагинов в код внедряется спам, из-за чего вебмастера долго ищут проблему, но безрезультатно.
В этой статье представлено низкозатратное и эффективно реализуемое решение.
Вы научитесь использовать скрытые данные из Google Search Console, эффективно сканировать «тёмные углы» сайта и очищать часто забываемый старый контент и риски внешних ссылок.
Table of Contens
ToggleСначала проверьте скрытые подсказки данных в Google Search Console
Когда сайт помечен как «содержащий спам», Google Search Console — самый прямой путь к решению.
Но многие вебмастера смотрят только на уведомления «ручных действий» и игнорируют скрытые подсказки в панели — например, страницы с аномальным трафиком, ключевые слова, понижаемые алгоритмом, и даже скрытые входы, взломанные хакерами.
Проверьте отчёт «Безопасность и ручные действия»
- В меню слева перейдите в «Безопасность и ручные действия» > «Ручные действия», чтобы увидеть конкретные типы нарушений (например, «спам-контент», «маскирующиеся страницы»).
- Если есть уведомление, исправьте указанные страницы; если «нет проблем», возможно, это автоматическая отметка алгоритмом (нужна дополнительная проверка).
Отфильтруйте аномальный трафик в отчёте «Эффективность»
- Перейдите в «Отчёт по эффективности», установите период на «последние 28 дней», выберите вкладку «Показы в результатах поиска».
- Отсортируйте по CTR (кликабельность) от низкого к высокому, найдите страницы с очень низким CTR (например, ниже 1%) или с резким ростом показов, но без кликов. Такие страницы Google может считать «низкокачественным/спам-контентом».
Экспортируйте данные по статусу индексации страниц
В разделе индексации скачайте отчёт «Статус индексации страниц», обращая внимание на:
- Исключённые страницы (например, «дублирующий контент» или с меткой noindex).
- Неожиданные страницы 404 (возможно, недействительные URL, созданные после взлома).
Отслеживайте риски внешних ссылок в разделе «Ссылки»
Перейдите в «Ссылки» > «Внешние ссылки» и проверьте, не появилось ли недавно много ссылок с повторяющимся анкор-текстом или с сайтов с низким рейтингом, так как такие ссылки могут вызвать наказание за «спам-ссылки».
Проверьте, были ли подозрительные изменения на сайте недавно
Если Google Search Console не даёт явных подсказок, проблема, скорее всего, связана с последними изменениями — например, уязвимость нового плагина, внедрение спам-кода или изменения в SEO-стратегии, которые сработали на алгоритмы.
Проверьте, не была ли SEO-стратегия слишком агрессивной
- Переспам ключевых слов: добавлялись ли недавно многократно одни и те же ключевые слова в заголовках, тексте или alt-тегах? Используйте инструменты (например, SEOquake) для проверки плотности ключевых слов — если выше 5%, нужно оптимизировать.
- Массовое создание низкокачественного контента: были ли страницы, сгенерированные AI, без ручной доработки? Проверьте читаемость и повторяемость через Copyscape.
Уязвимости из-за обновлений плагинов/тем
- Новые плагины: особенно сборщики контента (автоматический парсинг статей) и функции регистрации пользователей, которые могут использоваться злоумышленниками для создания спам-страниц.
- Риск внедрения кода: проверьте, не добавлен ли подозрительный код (редиректы, скрытые ссылки) в файлы темы
functions.php
илиheader.php
. - Временное решение: отключите недавно добавленные плагины или функции и проверьте, исчезнут ли предупреждения Google.
Внезапный рост внешних ссылок или аномальный анкор-текст
- Используйте Ahrefs или Semrush для проверки новых ссылок: появились ли много ссылок из нерелевантных отраслей, например, азартные игры или медицина?
- Аномальный анкор-текст: например, много ссылок с такими спам-ключами как «скачать бесплатно», «дешёвые покупки».
Подозрительные записи в логах сервера
Проверьте логи за последний месяц (путь: /var/log/apache2/access.log
) на предмет:
- Частых обращений к страницам входа (например,
wp-admin
). - POST-запросов на нестандартные пути (например,
/upload.php
). - Много ошибок 404 (возможно, попытки взлома).
Ключевые советы
- Приоритет — откатить рискованные изменения: например, удалить подозрительные плагины или восстановить прежний код.
- Пользовательский контент (UGC) — зона повышенного риска: проверяйте комментарии, личные страницы пользователей, включайте модерацию (плагин: Antispam Bee).
Используйте инструменты для сканирования всего сайта, не пропускайте “тёмные углы”
Ручная проверка сотен или тысяч страниц — почти как искать иголку в стоге сена. Спам часто прячется на страницах регистрации, динамических URL с параметрами или заброшенных тестовых каталогах.
Эти “тёмные углы” могут сканироваться Google, но вы о них можете и не подозревать.
Используйте краулер для сбора всех ссылок сайта
Screaming Frog (бесплатная версия сканирует до 500 URL): введите URL сайта, чтобы программа автоматически обошла все страницы, после чего экспортируйте и фильтруйте подозрительные ссылки.
?utm_source=spam
, /ref=123ab
./temp/
, /old/
, /backup/
.Checkbot (расширение для браузера): автоматически находит битые ссылки, взломанный контент и дублирующиеся заголовки.
Массовая проверка на дублирование/плагиат контента
- Siteliner (бесплатно): после ввода домена создает отчет, отмечая страницы с высоким уровнем внутреннего дублирования (например, одинаковые описания товаров).
- Copyscape Premium: платно, но очень точно, проверяет, не скопировали ли ваши страницы другие сайты (или вы чей-то контент).
Основные три “проблемные зоны” для сканирования
Пользовательский контент (UGC):
- Комментарии: используйте
site:вашдомен.com inurl:comments
для поиска спам-комментариев. - Профили пользователей: например,
/author/john/
,/user/profile/
, напрямую проверяйте на наличие мошеннического контента.
RSS / API пути:
Для сайтов на WordPress проверьте, не внедрен ли спам в /feed/
или /wp-json/
.
Пагинация и фильтрация:
Например, /category/news/page/99/
— такие конечные страницы могут быть пустыми или дублировать контент.
Анализ логов сервера для поиска аномалий
Используйте команду grep
или Excel для фильтрации логов за последние 30 дней:
- Часто посещаемые неизвестные страницы (например,
/random-page.html
). - Поисковые боты с необычной частотой обхода (хакеры часто маскируются под Googlebot).
Ключевые советы
- Осторожно с динамическими параметрами: например,
/product?id=xxx
, проверьте, не создаются ли с помощью множества параметров дубли страниц. - Признаки взломанных страниц: заголовки с ключевыми словами азартных игр или секса; страницы с скрытым текстом или редиректами.
- Если много проблемных страниц, отправьте запрос на “удаление сниппета” в Google Search Console, чтобы минимизировать ущерб.
Обработка старого контента, тестовых страниц и других скрытых источников спама
Вы можете думать, что “очистили” старые статьи и тестовые страницы, но Google все еще может считать их “мусорным контентом”.
Такие страницы давно не обновляются, могут быть взломаны с внедрением скрытых ссылок или содержать устаревшую информацию, вводящую пользователей в заблуждение, что снижает общий рейтинг сайта.
Истекший контент: удаляйте или отмечайте страницы как “бесполезные”
- Старые страницы товаров/блогов: используйте инструменты (например, Screaming Frog) для фильтрации страниц без обновлений за год, удаляйте или добавляйте тег
noindex
. - Истекшие промо-страницы: проверьте каталоги
/promo/
и/sale/
, если товар снят с продажи — делайте 301 редирект на похожие товары. - Страницы с агрегированным дублированным контентом: например, архивы по годам (
/2020/
), если трафик равен нулю — ставьтеnoindex
.
Тестовые страницы, оставшиеся от разработки
- Сканируйте временные каталоги: ищите
/test/
,/demo/
,/temp/
, проверьте, индексируются ли они (черезsite:вашдомен.com inurl:test
). - Удаляйте устаревшие страницы функций: например, тестовые страницы бронирования (
/booking-test/
), полностью удаляйте и отправляйте как битые ссылки.
Взломанные страницы с мусорными параметрами
Проверяйте URL с подозрительными параметрами:
- Ищите в Google по запросу
site:вашдомен.com intext:азарт|суррогатное материнство|счет
, чтобы найти взломанные страницы. - Анализируйте логи на наличие URL с подозрительными параметрами типа
?ref=spam
, удаляйте и блокируйте такие правила параметров.
Исправляйте уязвимости: меняйте пароль базы данных, обновляйте плагины/темы до последних версий.
Низкокачественный пользовательский контент (UGC)
- Массовая очистка профилей пользователей: в WordPress проверяйте страницы
/author/имя_пользователя/
, удаляйте аккаунты без постов или данных. - Блокируйте пути для спам-комментариев: добавьте в robots.txt
Disallow: /*?replytocom=
, чтобы не индексировалась пагинация комментариев.
Ключевые советы
- Сначала обрабатывайте страницы, уже проиндексированные Google: проверяйте через
site:вашдомен.com + имя_каталога
, напримерsite:вашдомен.com /test/
. - Не ограничивайтесь удалением, отправляйте обновления: после очистки используйте инструмент удаления URL в Google Search Console для ускорения обновления индекса.
Учтите, что ручная проверка Google обычно занимает от 1 до 3 недель. В этот период поддерживайте обновление контента сайта, чтобы не вызвать повторное срабатывание алгоритма.