Сайт помечен Google как “спам-контент”|Но конкретные страницы не найдены

本文作者:Don jiang

Механизм определения Google для спам-контента сложен. Иногда нарушающие правила страницы скрыты глубоко (например, страницы регистрации пользователей, старый тестовый контент) или из-за уязвимостей сторонних плагинов в код внедряется спам, из-за чего вебмастера долго ищут проблему, но безрезультатно.

В этой статье представлено низкозатратное и эффективно реализуемое решение.

Вы научитесь использовать скрытые данные из Google Search Console, эффективно сканировать «тёмные углы» сайта и очищать часто забываемый старый контент и риски внешних ссылок.

Сайт помечен Google как содержащий спам

Сначала проверьте скрытые подсказки данных в Google Search Console

Когда сайт помечен как «содержащий спам», Google Search Console — самый прямой путь к решению.

Но многие вебмастера смотрят только на уведомления «ручных действий» и игнорируют скрытые подсказки в панели — например, страницы с аномальным трафиком, ключевые слова, понижаемые алгоритмом, и даже скрытые входы, взломанные хакерами.

Проверьте отчёт «Безопасность и ручные действия»

  • В меню слева перейдите в «Безопасность и ручные действия» > «Ручные действия», чтобы увидеть конкретные типы нарушений (например, «спам-контент», «маскирующиеся страницы»).
  • Если есть уведомление, исправьте указанные страницы; если «нет проблем», возможно, это автоматическая отметка алгоритмом (нужна дополнительная проверка).

Отфильтруйте аномальный трафик в отчёте «Эффективность»

  • Перейдите в «Отчёт по эффективности», установите период на «последние 28 дней», выберите вкладку «Показы в результатах поиска».
  • Отсортируйте по CTR (кликабельность) от низкого к высокому, найдите страницы с очень низким CTR (например, ниже 1%) или с резким ростом показов, но без кликов. Такие страницы Google может считать «низкокачественным/спам-контентом».

Экспортируйте данные по статусу индексации страниц

В разделе индексации скачайте отчёт «Статус индексации страниц», обращая внимание на:

  • Исключённые страницы (например, «дублирующий контент» или с меткой noindex).
  • Неожиданные страницы 404 (возможно, недействительные URL, созданные после взлома).

Отслеживайте риски внешних ссылок в разделе «Ссылки»

Перейдите в «Ссылки» > «Внешние ссылки» и проверьте, не появилось ли недавно много ссылок с повторяющимся анкор-текстом или с сайтов с низким рейтингом, так как такие ссылки могут вызвать наказание за «спам-ссылки».

Проверьте, были ли подозрительные изменения на сайте недавно

Если Google Search Console не даёт явных подсказок, проблема, скорее всего, связана с последними изменениями — например, уязвимость нового плагина, внедрение спам-кода или изменения в SEO-стратегии, которые сработали на алгоритмы.

Проверьте, не была ли SEO-стратегия слишком агрессивной

  • Переспам ключевых слов: добавлялись ли недавно многократно одни и те же ключевые слова в заголовках, тексте или alt-тегах? Используйте инструменты (например, SEOquake) для проверки плотности ключевых слов — если выше 5%, нужно оптимизировать.
  • Массовое создание низкокачественного контента: были ли страницы, сгенерированные AI, без ручной доработки? Проверьте читаемость и повторяемость через Copyscape.

Уязвимости из-за обновлений плагинов/тем

  • Новые плагины: особенно сборщики контента (автоматический парсинг статей) и функции регистрации пользователей, которые могут использоваться злоумышленниками для создания спам-страниц.
  • Риск внедрения кода: проверьте, не добавлен ли подозрительный код (редиректы, скрытые ссылки) в файлы темы functions.php или header.php.
  • Временное решение: отключите недавно добавленные плагины или функции и проверьте, исчезнут ли предупреждения Google.

Внезапный рост внешних ссылок или аномальный анкор-текст

  • Используйте Ahrefs или Semrush для проверки новых ссылок: появились ли много ссылок из нерелевантных отраслей, например, азартные игры или медицина?
  • Аномальный анкор-текст: например, много ссылок с такими спам-ключами как «скачать бесплатно», «дешёвые покупки».

Подозрительные записи в логах сервера

Проверьте логи за последний месяц (путь: /var/log/apache2/access.log) на предмет:

  1. Частых обращений к страницам входа (например, wp-admin).
  2. POST-запросов на нестандартные пути (например, /upload.php).
  3. Много ошибок 404 (возможно, попытки взлома).

Ключевые советы

  • Приоритет — откатить рискованные изменения: например, удалить подозрительные плагины или восстановить прежний код.
  • Пользовательский контент (UGC) — зона повышенного риска: проверяйте комментарии, личные страницы пользователей, включайте модерацию (плагин: Antispam Bee).

Используйте инструменты для сканирования всего сайта, не пропускайте “тёмные углы”

Ручная проверка сотен или тысяч страниц — почти как искать иголку в стоге сена. Спам часто прячется на страницах регистрации, динамических URL с параметрами или заброшенных тестовых каталогах.

Эти “тёмные углы” могут сканироваться Google, но вы о них можете и не подозревать.

Используйте краулер для сбора всех ссылок сайта

Screaming Frog (бесплатная версия сканирует до 500 URL): введите URL сайта, чтобы программа автоматически обошла все страницы, после чего экспортируйте и фильтруйте подозрительные ссылки.

  • URL с подозрительными параметрами: например, ?utm_source=spam, /ref=123ab.
  • Необычные каталоги: такие как /temp/, /old/, /backup/.
  • Checkbot (расширение для браузера): автоматически находит битые ссылки, взломанный контент и дублирующиеся заголовки.

    Массовая проверка на дублирование/плагиат контента

    • Siteliner (бесплатно): после ввода домена создает отчет, отмечая страницы с высоким уровнем внутреннего дублирования (например, одинаковые описания товаров).
    • Copyscape Premium: платно, но очень точно, проверяет, не скопировали ли ваши страницы другие сайты (или вы чей-то контент).

    Основные три “проблемные зоны” для сканирования

    Пользовательский контент (UGC):

    1. Комментарии: используйте site:вашдомен.com inurl:comments для поиска спам-комментариев.
    2. Профили пользователей: например, /author/john/, /user/profile/, напрямую проверяйте на наличие мошеннического контента.

    RSS / API пути:

    Для сайтов на WordPress проверьте, не внедрен ли спам в /feed/ или /wp-json/.

    Пагинация и фильтрация:

    Например, /category/news/page/99/ — такие конечные страницы могут быть пустыми или дублировать контент.

    Анализ логов сервера для поиска аномалий

    Используйте команду grep или Excel для фильтрации логов за последние 30 дней:

    • Часто посещаемые неизвестные страницы (например, /random-page.html).
    • Поисковые боты с необычной частотой обхода (хакеры часто маскируются под Googlebot).

    Ключевые советы

    • Осторожно с динамическими параметрами: например, /product?id=xxx, проверьте, не создаются ли с помощью множества параметров дубли страниц.
    • Признаки взломанных страниц: заголовки с ключевыми словами азартных игр или секса; страницы с скрытым текстом или редиректами.
    • Если много проблемных страниц, отправьте запрос на “удаление сниппета” в Google Search Console, чтобы минимизировать ущерб.

    Обработка старого контента, тестовых страниц и других скрытых источников спама

    Вы можете думать, что “очистили” старые статьи и тестовые страницы, но Google все еще может считать их “мусорным контентом”.

    Такие страницы давно не обновляются, могут быть взломаны с внедрением скрытых ссылок или содержать устаревшую информацию, вводящую пользователей в заблуждение, что снижает общий рейтинг сайта.

    Истекший контент: удаляйте или отмечайте страницы как “бесполезные”

    • Старые страницы товаров/блогов: используйте инструменты (например, Screaming Frog) для фильтрации страниц без обновлений за год, удаляйте или добавляйте тег noindex.
    • Истекшие промо-страницы: проверьте каталоги /promo/ и /sale/, если товар снят с продажи — делайте 301 редирект на похожие товары.
    • Страницы с агрегированным дублированным контентом: например, архивы по годам (/2020/), если трафик равен нулю — ставьте noindex.

    Тестовые страницы, оставшиеся от разработки

    • Сканируйте временные каталоги: ищите /test/, /demo/, /temp/, проверьте, индексируются ли они (через site:вашдомен.com inurl:test).
    • Удаляйте устаревшие страницы функций: например, тестовые страницы бронирования (/booking-test/), полностью удаляйте и отправляйте как битые ссылки.

    Взломанные страницы с мусорными параметрами

    Проверяйте URL с подозрительными параметрами:

    • Ищите в Google по запросу site:вашдомен.com intext:азарт|суррогатное материнство|счет, чтобы найти взломанные страницы.
    • Анализируйте логи на наличие URL с подозрительными параметрами типа ?ref=spam, удаляйте и блокируйте такие правила параметров.

    Исправляйте уязвимости: меняйте пароль базы данных, обновляйте плагины/темы до последних версий.

    Низкокачественный пользовательский контент (UGC)

    • Массовая очистка профилей пользователей: в WordPress проверяйте страницы /author/имя_пользователя/, удаляйте аккаунты без постов или данных.
    • Блокируйте пути для спам-комментариев: добавьте в robots.txt Disallow: /*?replytocom=, чтобы не индексировалась пагинация комментариев.

    Ключевые советы

    • Сначала обрабатывайте страницы, уже проиндексированные Google: проверяйте через site:вашдомен.com + имя_каталога, например site:вашдомен.com /test/.
    • Не ограничивайтесь удалением, отправляйте обновления: после очистки используйте инструмент удаления URL в Google Search Console для ускорения обновления индекса.

    Учтите, что ручная проверка Google обычно занимает от 1 до 3 недель. В этот период поддерживайте обновление контента сайта, чтобы не вызвать повторное срабатывание алгоритма.

    Picture of Don Jiang
    Don Jiang

    SEO本质是资源竞争,为搜索引擎用户提供实用性价值,关注我,带您上顶楼看透谷歌排名的底层算法。

    最新解读