Die Webseite wurde gelöscht, aber Google zeigt weiterhin den alten Titel|Wie man den Schnappschuss erzwingt zu aktualisieren

本文作者:Don jiang

Seite gelöscht, aber Google zeigt weiterhin alten Titel

Veraltete Inhalte mit dem offiziellen Google-Tool entfernen

Anstatt passiv auf ein automatisches Update zu warten, bietet die Google Search Console die äußerst effektive Funktion „Vorübergehend entfernen“, mit der Suchergebnisse direkt beeinflusst werden können.

Dies entspricht einem „erzwungenen Aktualisierungssignal“ an den Google-Server – ideal für schnell zu löschende Seiten wie veraltete Produkt- oder Aktionsseiten. Wirkung kann bereits nach 12 Stunden eintreten.

Genauer Zugriffspunkt

  • Melden Sie sich in der Google Search Console an und wählen Sie in der linken Navigation „Entfernen“ (nicht „URL-Prüfung“)
  • Klicken Sie auf „Neuer Antrag“ → Tab „Vorübergehend entfernen“ (nicht die Option für permanente Entfernung)

Erforderliche Bedingungen zur Einreichung

  1. Die Zielseite muss den HTTP-Statuscode 404 oder 410 zurückgeben (mit Tools wie httpstatus.io prüfen)
  2. Falls die Seite weiterleitet, muss die Weiterleitung zuerst entfernt werden
  3. Beispiel: Gelöschte Produktseite https://example.com/product-123

Praxistipps zur Beschleunigung

  1. Zusätzlich die Option „Gecachte Version entfernen“ aktivieren (standardmäßig ausgeblendet, manuell aufklappen)
  2. Für mehrere Seiten den Modus „Nach Parametern entfernen“ verwenden (z. B. ?id=123-Links)
  3. Gültigkeit der Entfernung: ca. 6 Monate (danach erneute Einreichung erforderlich)

Häufige Fehlerursachen

  • ❌ Seite liefert weiterhin HTTP 200 zurück (nicht wirklich gelöscht)
  • ❌ Website-Besitz wurde nicht verifiziert (über DNS oder HTML-Datei verifizieren)
  • ❌ Eine URL mit „#“-Anker wurde eingereicht (es muss die Basis-URL sein)

Ergebniskontrolle

Status im Bereich „Entfernen“ überprüfen:

  • ✅ Grün „Genehmigt“: Seite wurde aus den Suchergebnissen ausgeblendet
  • ⏳ „In Bearbeitung“: Google hat die Anfrage erhalten (Bearbeitung meist innerhalb von 24 Std.)
  • ❗ „Fehler“: Korrigieren Sie den Seitenstatus und reichen Sie erneut ein

Trick zum manuellen Aktualisieren des Caches

Das manuelle Aktualisieren des Caches ist ein direkter Eingriff – ideal bei Seiten mit falschem Veröffentlichungsdatum, veralteten Preisen etc.

Durch ein „Täuschen“ des Google Crawlers kann eine neue Indexierung ausgelöst werden. In ca. 50 % der Fälle wird der Cache innerhalb von 3 Tagen aktualisiert.

Versteckter Pfad zum Aktualisierungs-Button

  • In der Google-Suche cache:DeineURL eingeben (z. B. cache:example.com/news)
  • Wichtig: Wenn die Seite aktualisiert werden kann, erscheint oben rechts der Button „Diesen Cache aktualisieren“ (nicht immer sichtbar)
  • Ein Klick sendet die Seite in die priorisierte Crawling-Warteschlange von Google

Inkognito-Modus zum Auslösen der Neuindizierung

  • Öffne die Seite im Inkognito-Modus in Chrome und aktualisiere sie 5x schnell hintereinander
  • Erweiterter Trick: Hänge zufällige Parameter an die URL, z. B. ?v=20230828
  • Hintergrund: Erhöht das Crawling-Gewicht durch simuliertes Nutzerverhalten um ca. 30 %

Cache-Umgehung im Browser

  • Mit F12 die Entwicklertools öffnen → Reiter „Netzwerk“
  • „Disable cache“ aktivieren und Seite neu laden (lokalen Cache umgehen)
  • Nach dreimaligem Durchlauf könnte Google den Inhalt als „instabil“ einstufen und neu crawlen

Hinweise

  • ❗ Seiten mit JavaScript-generierten Inhalten brauchen mind. 3 Durchläufe
  • ❗ Bei mobilen Versionen empfiehlt sich der Inkognito-Modus am Smartphone
  • ✅ Kombinieren Sie dies mit dem „Indexierungs-Check“-Tool in der Search Console

404-Fehler richtig einrichten für gelöschte Seiten

Viele Webmaster denken „Seite löschen = Problem gelöst“. Doch falsche 404-Konfigurationen können zu schwerwiegenden SEO-Problemen führen.

Google könnte weiterhin sogenannte „Geisterseiten“ crawlen und alte Caches beibehalten. Besonders bei „Soft 404“ (HTTP 200, aber keine Inhalte) leidet die Vertrauenswürdigkeit der Website.

HTTP-Statuscode korrekt prüfen

Nutzen Sie Browser-Plugins (z. B. HTTP Status) oder den Befehl curl -I SeitenURL

Erforderlich: Statuscode 404 oder 410 – kein 200 oder 302 (häufige Fehler bei Weiterleitungen zur Startseite)

  • Beispiel: In WordPress sollte das Plugin „Seitenumleitung auf ähnliche Inhalte“ deaktiviert werden

Alte Pfade per robots.txt blockieren

In der robots.txt folgende Zeile ergänzen: Disallow: /gelöschter-seitenpfad/ (Platzhalter * wird unterstützt)
Verhindern Sie das Crawlen und reichen Sie gleichzeitig den robots.txt-Testbericht in der Search Console ein

  • Warnung: robots.txt kann nicht verhindern, dass bereits indexierte Seiten als Cache angezeigt werden

Strategie zur Auswahl von 301-Weiterleitungen

Verwenden Sie 301-Weiterleitungen nur, wenn es Ersatzinhalte gibt (z. B. alte Produktseite → neue Kategorieseite)

Das Ziel der Weiterleitung sollte thematisch stark mit dem Originalinhalt verwandt sein (um SEO-Wert nicht zu verlieren)

  • Kaskadierende Weiterleitungen vermeiden (z. B. alte Seite A → alte Seite B → neue Seite C)

Häufige Risikoszenarien

  • ❌ 404-Hinweise mit JavaScript darstellen (Crawler betrachten dies möglicherweise als gültige Seite)
  • ❌ Benutzerdefinierte 404-Seiten mit Navigation oder Suchfeld (könnten als Soft-404 gewertet werden)
  • ✅ Richtig: Eine einfache Textnachricht auf der 404-Seite anzeigen, ohne interne Links

Hilfreiche Tools

  • Google Search Console → Abdeckungsbericht → Filter: „Eingereicht, aber nicht indexiert“
  • Screaming Frog-Crawler → Filter für „Client Error 4xx“-Seiten
  • Drittanbieter-SEO-Tools wie Ahrefs → Überwachung defekter externer Backlinks

(Beispielkonfiguration: Auf Apache-Servern ErrorDocument 404 /error-404.html in .htaccess setzen; unter Nginx error_page 404 /404.html; in der Konfiguration hinzufügen)

Bulk-Update-Tipp: XML-Sitemap

Bei Websites mit vielen veralteten Seiten (z. B. nicht verfügbare Produkte oder gelöschte Artikel) ist manuelles Einreichen ineffizient.

Die XML-Sitemap ist ein von Google anerkanntes „Massen-Update-Zertifikat“, das den Indexierungszyklus von Wochen auf bis zu 72 Stunden verkürzt.

Präzise dynamische Sitemap-Generierung

Verwenden Sie Tools wie Screaming Frog oder WordPress-Plugins, um die gesamte Website zu crawlen und 404-Seiten automatisch herauszufiltern

Erhalten Sie das <lastmod>-Tag für gültige Seiten (Zeitformat: 2023-08-28T12:00:00+00:00)

  • Fehler: Gelöschte URLs in der Sitemap führen zu wiederholten Crawl-Versuchen von Google

Strategie für forcierte Übermittlung in der Search Console

Nach dem Hochladen der neuen sitemap.xml auf „Testen“ klicken, um fehlerhafte Links zu identifizieren

Im Dropdown-Menü neben dem „Senden“-Button die Option „Erneut crawlen“ auswählen statt nur „Senden“

Für häufig aktualisierte Websites empfiehlt sich die Aufteilung in mehrere Sitemaps (z. B. product-sitemap.xml, news-sitemap.xml)

Zusammenspiel zwischen Sitemap und robots.txt

In der ersten Zeile der robots.txt-Datei folgendes einfügen: sitemap: https://ihredomain.de/sitemap.xml

Seiten, die vom Crawling ausgeschlossen sind, sollten auch aus der Sitemap entfernt werden (Vermeidung widersprüchlicher Anweisungen)

  • Beispiel: Alte Produktverzeichnisse aus der Sitemap entfernen und <noindex> einsetzen

Schnellere Wirkung

  • Wichtige Seiten in der Sitemap mit <priority>0.8</priority> kennzeichnen
  • Tägliche automatische Sitemap-Generierung einrichten (z. B. über Cronjobs im Admin-Panel)
  • Echtzeit-Updates über Indexing API implementieren (erfordert Entwicklerkenntnisse)

Überwachungsmetriken

  • In der Search Console unter „Sitemap-Einreichung“ das Verhältnis zwischen „Entdeckt“ und „Indexiert“ beobachten
  • Google Analytics verwenden, um Traffic auf 404-Seiten zu analysieren
  • Wöchentlicher DeepCrawl-Vergleich zwischen Sitemap und tatsächlichen Seiten

(Beispielkonfiguration: WordPress-Websites nutzen das RankMath-Plugin für dynamische Sitemaps, die stündlich mit der Datenbank synchronisiert werden)

Die Indexaktualisierung bei Google verzögert sich typischerweise um 1–3 Tage. Reichen Sie nicht mehrfach ein. Wenn nach 72 Stunden keine Wirkung eintritt, prüfen Sie zunächst, ob Weiterleitungscode oder robots.txt-Blockierungen noch vorhanden sind.

滚动至顶部