Table of Contens
ToggleVeraltete Inhalte mit dem offiziellen Google-Tool entfernen
Anstatt passiv auf ein automatisches Update zu warten, bietet die Google Search Console die äußerst effektive Funktion „Vorübergehend entfernen“, mit der Suchergebnisse direkt beeinflusst werden können.
Dies entspricht einem „erzwungenen Aktualisierungssignal“ an den Google-Server – ideal für schnell zu löschende Seiten wie veraltete Produkt- oder Aktionsseiten. Wirkung kann bereits nach 12 Stunden eintreten.
Genauer Zugriffspunkt
- Melden Sie sich in der Google Search Console an und wählen Sie in der linken Navigation „Entfernen“ (nicht „URL-Prüfung“)
- Klicken Sie auf „Neuer Antrag“ → Tab „Vorübergehend entfernen“ (nicht die Option für permanente Entfernung)
Erforderliche Bedingungen zur Einreichung
- Die Zielseite muss den HTTP-Statuscode 404 oder 410 zurückgeben (mit Tools wie httpstatus.io prüfen)
- Falls die Seite weiterleitet, muss die Weiterleitung zuerst entfernt werden
- Beispiel: Gelöschte Produktseite
https://example.com/product-123
Praxistipps zur Beschleunigung
- Zusätzlich die Option „Gecachte Version entfernen“ aktivieren (standardmäßig ausgeblendet, manuell aufklappen)
- Für mehrere Seiten den Modus „Nach Parametern entfernen“ verwenden (z. B.
?id=123
-Links) - Gültigkeit der Entfernung: ca. 6 Monate (danach erneute Einreichung erforderlich)
Häufige Fehlerursachen
- ❌ Seite liefert weiterhin HTTP 200 zurück (nicht wirklich gelöscht)
- ❌ Website-Besitz wurde nicht verifiziert (über DNS oder HTML-Datei verifizieren)
- ❌ Eine URL mit „#“-Anker wurde eingereicht (es muss die Basis-URL sein)
Ergebniskontrolle
Status im Bereich „Entfernen“ überprüfen:
- ✅ Grün „Genehmigt“: Seite wurde aus den Suchergebnissen ausgeblendet
- ⏳ „In Bearbeitung“: Google hat die Anfrage erhalten (Bearbeitung meist innerhalb von 24 Std.)
- ❗ „Fehler“: Korrigieren Sie den Seitenstatus und reichen Sie erneut ein
Trick zum manuellen Aktualisieren des Caches
Das manuelle Aktualisieren des Caches ist ein direkter Eingriff – ideal bei Seiten mit falschem Veröffentlichungsdatum, veralteten Preisen etc.
Durch ein „Täuschen“ des Google Crawlers kann eine neue Indexierung ausgelöst werden. In ca. 50 % der Fälle wird der Cache innerhalb von 3 Tagen aktualisiert.
Versteckter Pfad zum Aktualisierungs-Button
- In der Google-Suche
cache:DeineURL
eingeben (z. B.cache:example.com/news
) - Wichtig: Wenn die Seite aktualisiert werden kann, erscheint oben rechts der Button „Diesen Cache aktualisieren“ (nicht immer sichtbar)
- Ein Klick sendet die Seite in die priorisierte Crawling-Warteschlange von Google
Inkognito-Modus zum Auslösen der Neuindizierung
- Öffne die Seite im Inkognito-Modus in Chrome und aktualisiere sie 5x schnell hintereinander
- Erweiterter Trick: Hänge zufällige Parameter an die URL, z. B.
?v=20230828
- Hintergrund: Erhöht das Crawling-Gewicht durch simuliertes Nutzerverhalten um ca. 30 %
Cache-Umgehung im Browser
- Mit
F12
die Entwicklertools öffnen → Reiter „Netzwerk“ - „Disable cache“ aktivieren und Seite neu laden (lokalen Cache umgehen)
- Nach dreimaligem Durchlauf könnte Google den Inhalt als „instabil“ einstufen und neu crawlen
Hinweise
- ❗ Seiten mit JavaScript-generierten Inhalten brauchen mind. 3 Durchläufe
- ❗ Bei mobilen Versionen empfiehlt sich der Inkognito-Modus am Smartphone
- ✅ Kombinieren Sie dies mit dem „Indexierungs-Check“-Tool in der Search Console
404-Fehler richtig einrichten für gelöschte Seiten
Viele Webmaster denken „Seite löschen = Problem gelöst“. Doch falsche 404-Konfigurationen können zu schwerwiegenden SEO-Problemen führen.
Google könnte weiterhin sogenannte „Geisterseiten“ crawlen und alte Caches beibehalten. Besonders bei „Soft 404“ (HTTP 200, aber keine Inhalte) leidet die Vertrauenswürdigkeit der Website.
HTTP-Statuscode korrekt prüfen
Nutzen Sie Browser-Plugins (z. B. HTTP Status) oder den Befehl curl -I SeitenURL
Erforderlich: Statuscode 404 oder 410 – kein 200 oder 302 (häufige Fehler bei Weiterleitungen zur Startseite)
- Beispiel: In WordPress sollte das Plugin „Seitenumleitung auf ähnliche Inhalte“ deaktiviert werden
Alte Pfade per robots.txt blockieren
In der robots.txt folgende Zeile ergänzen: Disallow: /gelöschter-seitenpfad/
(Platzhalter *
wird unterstützt)
Verhindern Sie das Crawlen und reichen Sie gleichzeitig den robots.txt-Testbericht in der Search Console ein
- Warnung: robots.txt kann nicht verhindern, dass bereits indexierte Seiten als Cache angezeigt werden
Strategie zur Auswahl von 301-Weiterleitungen
Verwenden Sie 301-Weiterleitungen nur, wenn es Ersatzinhalte gibt (z. B. alte Produktseite → neue Kategorieseite)
Das Ziel der Weiterleitung sollte thematisch stark mit dem Originalinhalt verwandt sein (um SEO-Wert nicht zu verlieren)
- Kaskadierende Weiterleitungen vermeiden (z. B. alte Seite A → alte Seite B → neue Seite C)
Häufige Risikoszenarien
- ❌ 404-Hinweise mit JavaScript darstellen (Crawler betrachten dies möglicherweise als gültige Seite)
- ❌ Benutzerdefinierte 404-Seiten mit Navigation oder Suchfeld (könnten als Soft-404 gewertet werden)
- ✅ Richtig: Eine einfache Textnachricht auf der 404-Seite anzeigen, ohne interne Links
Hilfreiche Tools
- Google Search Console → Abdeckungsbericht → Filter: „Eingereicht, aber nicht indexiert“
- Screaming Frog-Crawler → Filter für „Client Error 4xx“-Seiten
- Drittanbieter-SEO-Tools wie Ahrefs → Überwachung defekter externer Backlinks
(Beispielkonfiguration: Auf Apache-Servern ErrorDocument 404 /error-404.html
in .htaccess setzen; unter Nginx error_page 404 /404.html;
in der Konfiguration hinzufügen)
Bulk-Update-Tipp: XML-Sitemap
Bei Websites mit vielen veralteten Seiten (z. B. nicht verfügbare Produkte oder gelöschte Artikel) ist manuelles Einreichen ineffizient.
Die XML-Sitemap ist ein von Google anerkanntes „Massen-Update-Zertifikat“, das den Indexierungszyklus von Wochen auf bis zu 72 Stunden verkürzt.
Präzise dynamische Sitemap-Generierung
Verwenden Sie Tools wie Screaming Frog oder WordPress-Plugins, um die gesamte Website zu crawlen und 404-Seiten automatisch herauszufiltern
Erhalten Sie das <lastmod>
-Tag für gültige Seiten (Zeitformat: 2023-08-28T12:00:00+00:00
)
- Fehler: Gelöschte URLs in der Sitemap führen zu wiederholten Crawl-Versuchen von Google
Strategie für forcierte Übermittlung in der Search Console
Nach dem Hochladen der neuen sitemap.xml auf „Testen“ klicken, um fehlerhafte Links zu identifizieren
Im Dropdown-Menü neben dem „Senden“-Button die Option „Erneut crawlen“ auswählen statt nur „Senden“
Für häufig aktualisierte Websites empfiehlt sich die Aufteilung in mehrere Sitemaps (z. B. product-sitemap.xml, news-sitemap.xml)
Zusammenspiel zwischen Sitemap und robots.txt
In der ersten Zeile der robots.txt-Datei folgendes einfügen: sitemap: https://ihredomain.de/sitemap.xml
Seiten, die vom Crawling ausgeschlossen sind, sollten auch aus der Sitemap entfernt werden (Vermeidung widersprüchlicher Anweisungen)
- Beispiel: Alte Produktverzeichnisse aus der Sitemap entfernen und
<noindex>
einsetzen
Schnellere Wirkung
- Wichtige Seiten in der Sitemap mit
<priority>0.8</priority>
kennzeichnen - Tägliche automatische Sitemap-Generierung einrichten (z. B. über Cronjobs im Admin-Panel)
- Echtzeit-Updates über Indexing API implementieren (erfordert Entwicklerkenntnisse)
Überwachungsmetriken
- In der Search Console unter „Sitemap-Einreichung“ das Verhältnis zwischen „Entdeckt“ und „Indexiert“ beobachten
- Google Analytics verwenden, um Traffic auf 404-Seiten zu analysieren
- Wöchentlicher DeepCrawl-Vergleich zwischen Sitemap und tatsächlichen Seiten
(Beispielkonfiguration: WordPress-Websites nutzen das RankMath-Plugin für dynamische Sitemaps, die stündlich mit der Datenbank synchronisiert werden)
Die Indexaktualisierung bei Google verzögert sich typischerweise um 1–3 Tage. Reichen Sie nicht mehrfach ein. Wenn nach 72 Stunden keine Wirkung eintritt, prüfen Sie zunächst, ob Weiterleitungscode oder robots.txt-Blockierungen noch vorhanden sind.