Der Hauptgrund für einen plötzlichen Rückgang der Google-Rankings ist oft, dass die Inhaltsqualität nicht den Standards entspricht (Nichteinhaltung der EEAT-Kriterien). Von den 24 Prüfpunkten sind veraltete Informationen (Absprungrate über 75 %), mangelnde Originalität (Indexierungsrate um 28 % gesunken) und mangelnde Tiefe (Verweildauer unter 15 Sekunden) die entscheidenden Faktoren.
Laut Daten von Ahrefs für das zweite Quartal 2024 haben 73 % der Websites in den letzten sechs Monaten einen unangekündigten Google-Ranking-Verlust erlebt, wobei 41 % der Fälle mit einem Rückgang des organischen Traffics um mehr als 30 % einhergingen. Für E-Commerce- oder Informationsseiten, die auf Suchzugriffe angewiesen sind, kann dies einen täglichen Verlust von über 50.000 Yuan an Bestellungen oder Werbeeinnahmen bedeuten.
Die folgenden 24 Kernprüfpunkte decken mehr als 200 Bewertungsindikatoren ab, auf die sich der neueste Google-Algorithmus (Update August 2025) konzentriert.

Table of Contens
ToggleVerschlechterung der Website-Geschwindigkeit
Bildoptimierung
Wenn Sie mit Google PageSpeed Insights testen und der Punkt „Bilder optimieren“ rot angezeigt wird, bedeutet dies, dass Bilder nicht komprimiert wurden oder ineffiziente Formate verwenden.
Ein Beispiel: Ein Food-Blog hat ein Originalbild „Schritte zum Backen eines Kuchens“ im JPEG-Format mit 5000×3000 Pixeln (12 MB). Durch Komprimierung in das WebP-Format mit 1200×800 Pixeln (1,2 MB) reduziert sich die Ladezeit von 3,1 Sekunden auf 0,8 Sekunden.
Handlungsempfehlung: Nutzen Sie TinyPNG zur Bildkomprimierung (Erhalt von EXIF-Daten optional), verwenden Sie YouTube/Vimeo-Embeds für Videos (vermeiden Sie direkte Uploads großer Dateien) und richten Sie „Responsive Images“ ein (Laden unterschiedlicher Auflösungen je nach Mobil-/PC-Bildschirm).
Server-Antwortzeit
Geben Sie ping IhreDomain.de in das Terminal ein. Wenn die durchschnittliche Latenz 200 ms überschreitet (z. B. 250 ms), bedeutet dies, dass der Server oder der CDN-Knoten zu weit entfernt ist.
Eine Bildungsseite nutzte einen US-Server mit einer Zugriffslatenz von 300 ms aus dem Inland. Nach dem Wechsel zu einem CDN in Hongkong sank die Latenz auf 80 ms, und das mobile Ranking stieg um 27 Plätze.
Handlungsempfehlung: Wechseln Sie zu Cloudflare oder einem regionalen CDN, kontaktieren Sie Ihren Hoster für ein Upgrade der Serverkonfiguration (Wechsel von Shared Hosting zu dedizierter IP usw.).
Leeren Sie den Server-Cache (automatisch über Plugins wie WP Rocket möglich).
Code-Redundanz
Überprüfen Sie mit Lighthouse „Nicht verwendetes JavaScript“ und „Nicht verwendetes CSS“. Wenn der Wert 20 % der Gesamtzessourcen überschreitet, ist der Code redundant.
Die Startseite einer Unternehmenswebsite lud 15 CSS-Dateien, von denen 7 nicht verwendet wurden. Nach der Entfernung sank die Ladezeit von 2,9 Sekunden auf 1,7 Sekunden.
Handlungsempfehlung: Führen Sie redundante CSS/JS-Dateien zusammen, nutzen Sie „Code Splitting“ (nur den für die aktuelle Seite benötigten Code laden) und entfernen Sie ineffektive Plugins (z. B. nicht mehr genutzte Analysetools).
Fehler bei der mobilen Optimierung
Überlappende Elemente oder Inhaltsüberlauf
Wenn das Google-Tool „Optimierung für Mobilgeräte“ Meldungen wie „Inhalt breiter als Bildschirm“ oder „Elemente überlappen“ anzeigt, verwenden Sie ein Layout mit fester Breite (z. B. width: 1200px).
Die mobile Seite eines Beauty-Blogs fixierte die Bildbreite auf 1000px, was horizontales Scrollen erforderte; der Testwert lag bei nur 45 von 100 Punkten. Nach der Korrektur stieg der Wert auf 82 und das Ranking erholte sich.
Handlungsempfehlung: Nutzen Sie „Responsive Design“ (Einsatz von Media Queries
@media (max-width: 768px)), setzen Sie eine maximale Breite für Container (z. B.max-width: 100%) und definieren Sie Bilder alswidth: 100%; height: auto.
Schriftarten und Buttons
Text auf Mobilgeräten sollte mindestens 16px groß sein (18px für kleine Smartphones empfohlen), die Buttongröße sollte mindestens 48x48px (Klickbereich) betragen.
Ein „Jetzt beraten“-Button einer Finanz-App war nur 35x35px groß, was zu einer Klick-Erfolgsquote von 42 % führte. Nach der Vergrößerung auf 48x48px stieg die Klickrate auf 67 %.
Handlungsempfehlung: Nutzen Sie Chrome DevTools zur Simulation mobiler Größen (Strg+Umschalt+M), prüfen Sie den Textkontrast (zum Hintergrund ≥ 4,5:1) und fügen Sie „Klick-Feedback“ für Buttons hinzu (z. B. Farbwechsel).
Laden von Ressourcen
Die mobile Netzwerkgeschwindigkeit ist langsamer als am PC. Das Laden von Ressourcen, die nur für den PC gedacht sind (z. B. riesige Werbebanner), verringert die Geschwindigkeit massiv.
Eine Reiseseite lud eine PC-Slideshow (10 Bilder, 5 MB) auf Mobilgeräten, wodurch die Ladezeit von 1,8 auf 4,2 Sekunden stieg und das mobile Ranking um 23 Plätze fiel.
Handlungsempfehlung: Blenden Sie reine PC-Module auf Mobilgeräten aus (
display: none), nutzen Sie leichtgewichtigere Assets (SVG-Icons statt PNG auf Mobilgeräten) und verwenden Sie Lazy Loading (loading="lazy") für nicht kritische Inhalte.
Zunahme von Crawling-Fehlern
404-Fehler (Seite nicht gefunden)
In der Google Search Console sind unter „Indexierung → Seiten“ rot markierte „404-Fehler“ tote Links.
Eine Bildungsseite löschte die Seite „Prüfungsunterlagen 2023“ (alter Link /pruefung/2023), ohne eine Weiterleitung einzurichten. 12 externe Backlinks führten ins Leere, was den Suchtraffic in diesem Bereich um 63 % einbrechen ließ.
Handlungsempfehlung: Nutzen Sie „Screaming Frog“ für einen Scan, um 404-Links zu finden. Gestalten Sie die 404-Seite benutzerfreundlich (mit hilfreichen Links) und richten Sie eine 301-Weiterleitung von der alten auf die relevanteste neue Seite ein (z. B.
/pruefung/2023→/pruefung/2024).
500-Fehler (Serverfehler)
Server-Logs (z. B. error.log von Nginx) protokollieren die Ursache von 500-Fehlern (Code-Fehler, Datenbankverbindungsfehler usw.).
Ein Online-Shop hatte aufgrund eines veralteten Zahlungs-Plugins 8–10 Mal pro Monat 500-Fehler. Google stellte das Crawling dieser Produktseiten ein, was den monatlichen Umsatz um 15 % reduzierte.
Handlungsempfehlung: Bitten Sie Ihren Hoster, die Server-Logs zu prüfen. Aktualisieren Sie Plugins/Themes auf die neueste Version. Richten Sie ein Monitoring (z. B. UptimeRobot) ein, um bei 500-Fehlern sofort benachrichtigt zu werden.
Fehlerhafte 301-Weiterleitungen
Mit Tools wie „Redirect Checker“ können Sie prüfen, ob Weiterleitungsketten (A→B→C→D) über 3 Sprünge hinausgehen oder das Ziel nicht existiert.
Ein Möbelhaus leitete „/alter-sessel“ korrekt auf „/neuer-sessel-v1“ weiter, aber die Umleitung von „/alter-stuhl“ auf eine irrelevante „/alter-tisch“-Seite führte dazu, dass beide Seiten 40 % ihres Rankings verloren.
Handlungsempfehlung: Verkürzen Sie Weiterleitungsketten (direkt von A nach D). Stellen Sie die inhaltliche Relevanz zwischen Ziel und Quelle sicher. Nutzen Sie den „rel=canonical“-Tag, um Link-Versionen zu konsolidieren.
Probleme mit HTTPS-Zertifikaten
Seit 2023 definiert Google „HTTPS-Sicherheit“ explizit als Rankingfaktor. Websites mit Zertifikatsfehlern (abgelaufen, falsch zugeordnet, Mixed Content) verzeichnen einen Rückgang der mobilen Klickrate (CTR) um durchschnittlich 28 % und eine Reduzierung der Indexierung um 19 %.
Abgelaufene Zertifikate
Zertifikate haben eine Laufzeit (meist 1–2 Jahre). Nach Ablauf zeigt der Browser Warnungen wie „Nicht sicher“ an (z. B. „⚠️ Das Sicherheitszertifikat dieser Website ist abgelaufen“).
Ein Shop für Babyartikel vergaß die Verlängerung; 35 % der mobilen Nutzer verließen die Seite sofort, der organische Traffic sank an diesem Tag um 41 %.
Selbstprüfung: Besuchen Sie die Seite, klicken Sie auf das Schloss-Icon links in der Adresszeile → „Zertifikat“ anzeigen → Prüfen Sie, ob das Ablaufdatum in der Zukunft liegt (Verlängerung 30 Tage vorher empfohlen).
Zertifikats-Mismatch
Ein Zertifikat muss an eine spezifische Domain gebunden sein (z. B. www.beispiel.de). Wenn die Domain des Zertifikats nicht mit der Website übereinstimmt, meldet der Browser ein „Ungültiges Zertifikat“.
Die Subdomain k12.beispiel.de eines Bildungsträgers war nicht vom Hauptzertifikat abgedeckt, wodurch die Seite nicht korrekt lud und monatlich über 200 Beratungsanfragen verloren gingen.
Lösung: Erwerben Sie ein „Wildcard-Zertifikat“ (deckt
*.beispiel.deab) oder ein Multi-Domain-Zertifikat.
„HTTP-Lücken“ in HTTPS-Seiten
Wenn eine HTTPS-Seite HTTP-Ressourcen (Bilder, JS-Skripte) lädt, markiert der Browser sie als „Teilweise nicht sicher“ (Mixed Content).
Ein Nachrichtenportal bettete externe Werbeskripte über HTTP ein. 70 % der mobilen Nutzer sahen eine Sicherheitswarnung, das Ranking fiel um 22 Plätze.
Korrektur-Tipp: Prüfen Sie in den Chrome DevTools (F12 → Console) auf „Mixed Content“-Warnungen. Ändern Sie alle Ressourcen-Links von
http://aufhttps://. Nutzen Sie bei externen Ressourcen den HeaderContent-Security-Policyfür ein automatisches Upgrade.
Rendering-Blocking durch JavaScript/CSS
Laut Googles Core Web Vitals Daten 2024 haben Seiten, die aufgrund von JS/CSS-Blockaden länger als 2,5 Sekunden für den ersten Bildaufbau benötigen, ein im Schnitt um 37 Plätze schlechteres mobiles Ranking als optimierte Seiten.
Einfach gesagt: Der Browser muss diesen Code erst „lesen“ und ausführen, bevor er den Inhalt anzeigen kann. Je mehr und schwerfälliger der Code ist, desto länger wartet der Nutzer – und desto schlechter ist das Ranking.
Das Prinzip der Rendering-Blockade
Standardmäßig verarbeitet der Browser HTML, CSS und JS beim Laden der Reihe nach.
- CSS-Blockade: Der Browser muss erst das gesamte CSS laden und analysieren (außer
media="print"), bevor er das Seitendesign (Farben, Layout) festlegen kann. - JS-Analyse-Blockade: JS-Code ohne
asyncoderdeferstoppt das Parsen des HTML (da JS die Struktur ändern könnte), was die Anzeige verzögert.
Ein Möbelhaus lud 15 JS-Dateien auf der Startseite (10 davon ohne asynchrones Laden). Die Zeit bis zum ersten Bildaufbau stieg von 1,1 auf 3,9 Sekunden, die mobile Absprungrate sprang von 51 % auf 79 %.
Welche Ressourcen blockieren am stärksten?
Achten Sie bei Lighthouse-Messungen auf diese drei Indikatoren:
| Problemtyp | Typische Symptome | Einflussgrad |
|---|---|---|
| Nicht optimiertes CSS | Viele ungenutzte Media Queries oder Selektoren | Blockiert den ersten Bildaufbau |
| Synchrones JS | Externe Skripte ohne async/defer | Blockiert das HTML-Parsing |
| Große JS/CSS-Dateien | Einzeldateien über 500 KB | Verlängert die gesamte Ladezeit |
Browser zum parallelen Laden zwingen
- CSS: Nur benötigte Styles für die aktuelle Seite laden: Nutzen Sie „Critical CSS Inlining“ (wichtige Styles für den sofort sichtbaren Bereich direkt ins HTML schreiben) und verwenden Sie
media="screen and (min-width: 768px)"für restliches CSS. - JS: Nicht unnötig blockieren: Fügen Sie
asyncfür unkritische Skripte (Analyse, Werbung) hinzu unddeferfür Skripte, die das DOM benötigen (Ausführung erst nach vollständigem HTML-Parsing). - Komprimierung und Zusammenführung: Komprimieren Sie JS mit Terser und CSS mit CSSNano. Fassen Sie kleine Dateien zusammen, um HTTP-Anfragen zu reduzieren.
Unklare URL-Strukturen
Laut Googles Search Central Leitfaden 2024 haben Seiten mit klarer und prägnanter URL-Struktur eine um 29 % höhere Indexierungsrate und eine um 22 % höhere Klickrate (CTR) als Seiten mit chaotischen URLs.
Die URL ist der „erste Hinweis“ für Google zum Thema der Seite. Komplexe URLs verwirren Bots und wirken auf Nutzer „unseriös“.
Typische Chaos-Fälle
| Problemtyp | Beispiel | Auswirkung auf Google/Nutzer |
|---|---|---|
| Zu lang / zu viele Parameter | /produkt?id=12345&page=2&sort=preis | Schwer zu crawlen, schwer zu merken |
| Keyword-Wiederholung | /beste-beste-laptops-fuer-studenten | Wirkt wie Spam, verliert Vertrauen |
| Chaotische dynamische Parameter | /post?timestamp=1725283200&uid=abc | Keine Zuordnung zu ähnlichen Inhalten möglich |
Ein Technik-Portal nutzte unzählige dynamische Parameter in der URL (z. B. /test?geraet=iphone15&datum=20240903&autor=max), wodurch verschiedene Artikel zum selben Produkt als „Duplicate Content“ eingestuft wurden. Die Indexierung sank um 24 %, das Ranking für „iPhone 15 Test“ fiel von Platz 2 auf Platz 11.
Was Google an URLs „liebt“
Kurz und bündig: Ideale Länge unter 60 Zeichen. /beste-laptops-2024 ist viel besser lesbar als /artikel/2024/09/beste-laptops-fuer-studenten-in-2024.
Enthält Keywords: Nutzen Sie „Produktname + Eigenschaft“ (z. B. /funk-kopfhoerer-noise-cancelling) statt bedeutungsloser Zahlen (z. B. /post-123).
Statische Hierarchie: Trennen Sie Ebenen mit Slashes (/kategorie/unterkategorie/produkt) und minimieren Sie Fragezeichen (?) oder Gleichheitszeichen (=).
Von „unordentlich“ zu „freundlich“
Parameter aufräumen: Entfernen Sie Parameter ohne Inhaltsrelevanz (behalten Sie utm_source, löschen Sie timestamp). Nutzen Sie rel=canonical, um die Haupt-URL festzulegen.
Namenskonventionen: Verwenden Sie Bindestriche (-) statt Unterstrichen (_). Beispiel: /guenstige-smartphones.
Kleinschreibung erzwingen: Nutzen Sie nur Kleinbuchstaben (verhindert, dass /Produkt und /produkt als zwei Seiten gewertet werden). Ersetzen Sie Leerzeichen oder Sonderzeichen durch -.
Fehler bei 301-Weiterleitungen
Eine 301-Weiterleitung signalisiert Google: „Die neue Adresse ist hier“. Richtig eingesetzt, fließt die Ranking-Power nahtlos über. Falsch eingesetzt, geht die Autorität verloren.
Laut Google-Testdaten verliert das Ziel bei jeder zusätzlichen Weiterleitung in einer Kette (A→B→C) etwa 15–20 % seiner Ranking-Power. Bei Weiterleitungen auf irrelevante Seiten geht der SEO-Wert fast vollständig verloren.
Die häufigsten Fehler
| Fehlertyp | Typisches Symptom | Auswirkung aufs Ranking |
|---|---|---|
| Zu lange Ketten | A→B→C→D (mehr als 3 Sprünge) | 15–20 % Kraftverlust |
| Ziel existiert nicht | Leitet auf 404 oder gelöschte Seiten | Verlust des SEO-Werts der Quelle |
| Missbrauch von 302 | Permanenter Umzug als temporär markiert | Ranking-Power wird evtl. nicht übertragen |
Ein Shop für Umstandsmode leitete korrekt von „/mode-2022“ auf „/mode-2023“ weiter, aber die Umleitung von „/kinderbetten-2021“ auf irrelevante „/kinderwagen-2023“ führte zu einem Traffic-Verlust von 55 % für beide Seiten.
Prüfmethoden
Screaming Frog: Scannen Sie die Seite und prüfen Sie den Bericht „Redirects“ auf die Anzahl der Sprünge und den Ziel-Statuscode (z. B. 404/500).
Redirect Checker: Geben Sie alte Links ein, um den Pfad zu prüfen und Ketten mit mehr als 3 Sprüngen zu markieren.
Korrekturmaßnahmen
Ketten verkürzen: Leiten Sie die alte Seite direkt auf das relevanteste neue Ziel weiter (A→D).
Ziele verifizieren: Stellen Sie sicher, dass das Ziel existiert und inhaltlich passt (z. B. „Prüfung 2023“ → „Prüfung 2024“).
301 statt 302: Nutzen Sie für dauerhaft gelöschte oder verschobene Seiten zwingend 301.
Veraltete oder ungültige Inhalte
Das Google Core Update 2024 betont, dass Aktualität und Genauigkeit wichtige Faktoren sind. Veraltete Inhalte (z. B. „Beste Smartphones“ von 2020) haben eine um 35 % höhere Absprungrate und ranken im Schnitt 27 Plätze schlechter. Nutzer suchen Lösungen für heute, kein Archiv.
Anzeichen für Veraltung
| Typ | Beispiel | Nutzerreaktion |
|---|---|---|
| Daten abgelaufen | „Smartphone-Marktanteile 2023“ im Jahr 2024 posten | Kommentare über „falsche Daten“ |
| Regeländerungen | „Anmeldefristen 2022“ im Jahr 2024 anzeigen | Nutzer beschweren sich über verpasste Fristen |
| Bedarfswandel | Nur Basics erklären, aber aktuelle Fallstricke ignorieren | Hohe Absprungrate (Suche nach Detailartikeln) |
Ein Tech-Blog postete „Top 10 Flaggschiffe 2023“, aktualisierte Specs und Chips aber 2024 nicht. Bei der Suche nach „Flaggschiffe 2024“ fiel das Ranking von Platz 3 auf 18, die CTR sank von 12 % auf 4 %.
Prüfmethoden
Veröffentlichungsdatum: Prüfen Sie den Hinweis „Zuletzt aktualisiert am“. Inhalte, die über ein Jahr alt sind, sollten priorisiert geprüft werden.
Abgleich mit Branchentrends: Stimmen die Zahlen noch mit aktuellen Berichten überein?
Kommentare prüfen: Weisen Nutzer auf veraltete Informationen hin (z. B. „Dieser Schritt funktioniert so nicht mehr“)?
Korrekturmaßnahmen
Kerndaten aktualisieren: Daten korrigieren (2023 → 2024) und neueste Richtlinien einpflegen.
Themen erweitern: Ergänzen Sie aktuelle Nutzerbedürfnisse (z. B. „Wie man Bohnen wählt“ beim Kaffeekochen).
Aktualisierung markieren: Schreiben Sie oben: „Aktualisiert im September 2024, Bereich XX überarbeitet“, um Frische zu signalisieren.
Mangelnde Originalität der Inhalte
Googles Ziel ist es, die nützlichsten Informationen für Nutzer zu finden. Nicht-originelle Inhalte (Kopien von Wikis, Patchwork aus anderen Seiten) haben eine um 28 % geringere Indexierung und eine um 40 % kürzere Verweildauer. Nutzer merken sofort, wenn es keine echte neue Information ist.
Gefahren von Kopie bis „Spinning“
| Problemtyp | Symptom | Google-Logik |
|---|---|---|
| Direkte Kopie | „Geschichte des Kaffees“ 1:1 aus Wikipedia kopiert | Hohe Dublette zu anderen Seiten |
| Patchwork (Spinning) | Schritte von Seite A mit Fazit von Seite B kombinieren | Fehlende Logik, keine eigene Meinung |
| Maschinelle Übersetzung | Ausländische Blogs ohne Anpassung übersetzen | Unnatürliche Sprache, schwer lesbar |
Eine Bildungsseite änderte nur den Titel eines Wettbewerber-Leitfadens, übernahm aber den Inhalt. Google stufte dies als „minderwertigen Duplicate Content“ ein; die Indexierung sank um 62 %, das Ranking fiel aus den Top 50.
Tools zur Originalitätsprüfung
Copyscape: URL eingeben und prüfen, ob die Übereinstimmung 70 % übersteigt.
Google-Suche: Sätze in Anführungszeichen setzen und schauen, ob identische Treffer erscheinen.
Lesegefühl: Fragen Sie sich: „Ist das ein Artikel, den nur ich so schreiben konnte?“ (Unnatürliche Übergänge sind Warnsignale).
Inhalte „menschlicher“ machen
Persönliche Erfahrung: Teilen Sie echte Fallbeispiele (z. B. „Mit dieser Methode stiegen meine Punkte in einem Monat“).
Eigene Daten ergänzen: Nutzen Sie Umfragen (z. B. „70 % von 100 Befragten scheiterten am Hörverstehen“).
Struktur neu aufbauen: Reihenfolge anpassen und mit eigenen Worten neu formulieren.
Keyword-Stuffing oder Irrelevanz
Keywords helfen Google beim Thema, aber exzessives Anhäufen (Wiederholung) oder die Nutzung irrelevanter Keywords führt zu einer Abwertung der Seitenqualität und vertreibt Nutzer.
Laut Ahrefs 2024 sinkt das Ranking bei einer Keyword-Dichte von über 8 % (normal sind 2–5 %) im Schnitt um 29 %. Die CTR bei unpassenden Keywords ist um 44 % niedriger.
Wenn „Optimierung“ zur „Manipulation“ wird
Beispiel für Keyword-Stuffing:
- Titel: „Katzenkrankheiten Therapie Klinik | Katzenkrankheiten Symptome Klinik | Katzenkrankheiten Vorsorge Klinik“ (Wiederholung von „Katzenkrankheiten“ und „Klinik“)
- Text: „Katzenkrankheiten Therapie, Hinweise zur Katzenkrankheiten Therapie, Kosten der Katzenkrankheiten Therapie“ (4-mal in einem Absatz)
Eine Tierklinik übertrieb es mit „Katzenkrankheiten Therapie“, was von Google als Spam gewertet wurde. Das Ranking fiel von Platz 3 auf 16, die CTR sank von 15 % auf 6 %.
Prüfmethoden
- Nutzen Sie Keyword-Density-Tools (Vorsicht bei über 5 %).
- Laut vorlesen: Klingt der Kontext noch natürlich, wenn man das Keyword weglässt? Wenn nein, ist es Stuffing.
Verbesserungsvorschläge
- Natürlich einbetten: Platzieren Sie Keywords in spezifischen Szenarien (z. B. „Am dritten Tag der Therapie ist die Nahrungsaufnahme ein wichtiges Zeichen“).
- Long-Tail-Keywords nutzen: Variieren Sie Begriffe wie „Kosten Therapie 2024“ oder „Symptome bei Kätzchen“, um die Dichte zu verteilen.
Mangelnde Inhaltstiefe
Google legt Wert auf „Vollständigkeit“. Oberflächliche Seiten haben eine um 58 % kürzere Verweildauer und ein um 31 % schlechteres Ranking als Deep-Content. Nutzer wollen Lösungen, keine Bruchstücke.
Beispiele für mangelnde Tiefe
| Problemtyp | Beispiel | Nutzerreaktion |
|---|---|---|
| Zu kurz | 400 Wörter über Therapie ohne konkrete Schritte | Kommentar: „Inhalt zu dünn“ |
| Fehlende Details | Nur „Infusion nötig“ schreiben, statt „welche Infusion“ | Nutzer fragt: „Welches Medikament genau?“ |
| Keine Lösung | Symptome auflisten, aber kein „Was tun“ bieten | Absprungrate über 85 % |
Ein Haustier-Blog listete Symptome in nur 300 Wörtern auf. Da keine echte Hilfe geboten wurde, fiel das Ranking von Platz 5 auf 23.
Prüfmethoden
- Wortzahl prüfen: Informative Inhalte sollten mindestens 800–1500 Wörter umfassen.
- Gliederung prüfen: Werden Unterfragen (Erkennung → Arztbesuch → Pflege → Kosten) abgedeckt?
Verbesserungsvorschläge
- Konkrete Details: Statt „Infusion“ Details wie „Ringer-Laktat-Lösung (50ml/kg)“ nennen.
- Sorgen nehmen: Fragen wie „Heilbar?“ oder „Dauer der Genesung?“ vorab beantworten.
- Aktualisierung markieren: „Update Sept. 2024: Pflegeschritte und aktuelle Kosten ergänzt.“
Fehler in der internen Linkstruktur
Interne Links sind das „Straßennetz“ der Seite. Bei Chaos erreicht der Google-Bot manche Seiten nicht, und Nutzer springen ab, weil sie keine weiterführenden Informationen finden.
23 % der Seiten in schlecht verlinkten Projekten sind „Orphan Pages“ (keine eingehenden Links) und werden 21 % seltener indexiert.
Gefahren der Link-Unordnung
| Fehlertyp | Symptom | Auswirkung |
|---|---|---|
| Keine Links | Wichtiger Artikel wird von keiner Seite verlinkt | Geringe Crawl-Rate (ca. 12 %) |
| Irrelevante Links | Link von „Katzenkrankheit“ auf „Haustier-Pflegeprodukte“ | Schlechte UX, hohe Absprungrate |
| Doppelte Links | Gleicher Link mehrfach im selben Absatz | Verschwendung von „Link-Autorität“ |
Eine Klinik veröffentlichte einen Therapie-Artikel, verlinkte ihn aber nicht von der Startseite oder dem Menü. Google crawle die Seite nur zweimal in drei Monaten, das Ranking sank von Platz 4 auf 19.
Prüfmethoden
- Screaming Frog: Orphan Pages suchen (Inlinks = 0).
- Stichprobe: Prüfen Sie 3 Artikel auf sinnvolle interne Links im Fließtext.
Verbesserungsvorschläge
- Einstiegspunkte schaffen: Links auf Startseite, Menü oder unter populären Artikeln platzieren.
- Kontext herstellen: Im Therapie-Artikel auf „Impfung“ verlinken, wenn diese erwähnt wird.
- Tote Links bereinigen: Links auf 404-Seiten löschen oder aktualisieren.
Duplicate Content (Doppelte Inhalte)
Duplicate Content bedeutet, dass identische Inhalte unter mehreren URLs erreichbar sind. Google stuft dies als „minderwertig“ ein und zeigt meist nur eine Version an; der Rest verliert die Ranking-Berechtigung.
Typen von Duplikaten
| Duplikat-Typ | Symptom | Auswirkung |
|---|---|---|
| Multi-URL-Duplikat | www.beispiel.de/artikel und m.beispiel.de/artikel identisch | Google wertet nur eine Version |
Möchten Sie, dass ich für einen dieser Punkte eine detaillierte Optimierungsstrategie für Ihre Website erstelle?
| Problemtyp | Spezifisches Szenario | Ergebnis |
|---|---|---|
| Doppelte Inhalte | Indexabdeckung um 19 % gesunken | Ranking-Verlust |
| Titel korrigiert und neu veröffentlicht | “Abitur Mathe Aufgaben 2023” in “Prüfungsfragen Mathe 2023” geändert und neu gepostet | Bewertung der Haupt-Keywords verwässert |
| Auszüge und Zusammenstellungen | Kerninhalte zweier ähnlicher Artikel ohne eigene Ergänzungen zusammengefügt | Als “minderwertige Aggregation” markiert |
Eine lokale Bildungswebseite veröffentlichte Inhalte zur “Aufnahmepolitik für die Mittelschule 2024” gleichzeitig unter den Pfaden /zhongkao/2024 und /jy/2024. Dies führte dazu, dass Google nur den ersten Pfad indexierte, während der Traffic des zweiten Pfades um 62 % einbrach und das Ranking für das Haupt-Keyword “Mittelschulpolitik Peking” von Platz 2 auf Platz 12 fiel.
Tools zur Überprüfung von “Duplikaten”
- Google Suche: Geben Sie
site:IhreDomain Keywordein (z. B.site:xxx.com Mittelschulpolitik), um zu sehen, ob mehrere Seiten denselben Inhalt anzeigen. - Screaming Frog: Scannen Sie die gesamte Website und exportieren Sie den Bericht “Content Duplicate” (Seiten mit einer Ähnlichkeit von über 80 % werden markiert).
Inhalte “einzigartig” und “nützlich” machen
- Verwendung des rel=”canonical”-Tags: Fügen Sie im Header der doppelten Seite
<link rel="canonical" href="Haupt-URL">hinzu, um Google mitzuteilen, welches die “Originalversion” ist (z. B. Link zur PC-Version in der mobilen Version). - Inhalte zusammenführen: Löschen Sie überflüssige Seiten und führen Sie wichtige Informationen auf einer einzigen Seite zusammen (z. B. “Aufnahmepolitik” und “Anmeldeverfahren” zum “Vollständigen Leitfaden 2024” vereinen).
- Differenzierte Überarbeitung: Falls mehrere Versionen nötig sind, ergänzen Sie unterschiedliche Details (z. B. PC-Version mit Fokus auf Richtlinienanalyse, mobile Version auf “Schnelle Terminübersicht”).
Unwirksame Meta-Tags
Meta-Tags (Titel, Beschreibung) sind der “erste Hinweis” für Google, um das Thema einer Seite zu beurteilen, und der Schlüssel für Nutzer, um über einen Klick zu entscheiden.
Unwirksame Meta-Tags führen dazu, dass Google den Inhalt falsch einschätzt und Nutzer die Seite ignorieren, wenn sie einen “irrelevanten” Titel oder eine unpassende Beschreibung sehen. Selbst wenn die Qualität der Seite hoch ist, besteht die Gefahr, dass sie aufgrund “schlechter Tags” niemand besucht.
Je “nachlässiger”, desto “gefährlicher”
| Problemtyp | Typisches Beispiel | Auswirkung auf die CTR |
|---|---|---|
| Titel zu lang / doppelt | Titel: “Aufnahmepolitik 2024 | Analyse der Aufnahmepolitik 2024” | Titel wird abgeschnitten oder wirkt wie Spam |
| Beschreibung vage / irrelevant | Beschreibung: “Klicken Sie hier für weitere Bildungsdetails” (Kein konkreter Inhalt) | CTR sinkt um 33 % |
| Keyword-Stuffing | Beschreibung: “Aufnahmepolitik 2024 Anmeldung Zeitplan NC-Werte Abfrage” | Nutzer empfinden es als “zu viel Werbung” |
Eine Bildungswebseite schrieb den Meta-Titel für die Seite “Aufnahmepolitik” dreifach wiederholt: “Aufnahmepolitik 2024|Aufnahmepolitik 2024|Aufnahmepolitik 2024”. In den Google-Suchergebnissen wurde der Titel abgeschnitten (nur die ersten 30 Zeichen sichtbar), wodurch die CTR massiv von 15 % auf 6 % einbrach.
Mit Tools die “echten Suchergebnisse” sehen
- Google Search Console: Gehen Sie auf “Suchergebnisse” → “Titel”/”Beschreibung”, um zu prüfen, ob die indexierten Inhalte mit Ihren Einstellungen übereinstimmen.
- SEMrush: Geben Sie die URL ein, um den Bericht “Meta Tag Analysis” zu sehen (warnt vor zu langen Titeln oder Beschreibungen ohne Keywords).
Tags “präzise und attraktiv” gestalten
- Titel-Optimierung: Begrenzen Sie ihn auf ca. 60 Zeichen und enthalten Sie Kern-Keywords (z. B. “Mittelschulpolitik Berlin 2024: Anmeldefristen und Bonuspunkte im Detail”).
- Beschreibungs-Optimierung: Schreiben Sie den “Nutzer-Nutzen” innerhalb von 150-200 Zeichen (z. B. “Anmeldung 2024 startet am 01.11. Drei Gruppen erhalten Bonuspunkte! Klicken Sie für das Verfahren”).
- Aufzählung vermeiden: Keywords natürlich einbetten (z. B. “Aufnahmepolitik” nur 1-2 Mal verwenden, Fokus auf Termine oder Bedingungen).
Sprunghafter Anstieg der Absprungrate
Die Absprungrate (Bounce Rate) ist der Anteil der Nutzer, die eine Seite aufrufen und “sofort wieder schließen”.
Google wertet eine hohe Absprungrate als Signal für eine “wertlose Seite” und senkt das Ranking. Nutzer stimmen mit ihrem Klick ab: “Diese Seite löst mein Problem nicht.”
Je “unpassender”, desto höher die Rate
| Ursachentyp | Typisches Phänomen | Auswirkung auf Bounce Rate |
|---|---|---|
| Inhaltliche Diskrepanz | Suche nach “Politik 2024”, aber Inhalt zeigt “Aufgaben 2023” | Rate steigt auf bis zu 85 % |
| Langsame Ladezeit | Ladezeit des ersten sichtbaren Bereichs > 3 Sek. (Mobil) | Rate erhöht sich um 40 % |
| Geringe Inhaltsqualität | Inhalt nur ca. 300 Wörter und sehr vage (z. B. “Bildung ist wichtig”) | Rate erreicht 78 % |
Eine Seite zur “Aufnahmepolitik 2024” lud sehr langsam (3,2 Sek.) und bestand nur aus Gesetzestexten (ohne “Vorbereitung” oder “FAQ”). Die Absprungrate stieg von 52 % auf 81 %, das Ranking für Haupt-Keywords fiel um 19 Plätze.
Mit Daten “Seiten mit hoher Absprungrate” finden
- Google Analytics: Filtern Sie unter “Verhalten” → “Website-Content” → “Zielseiten” nach der Spalte “Absprungrate” (Seiten über 70 % prüfen).
- Heatmap-Tools (z. B. Hotjar): Prüfen Sie die Klickverteilung. Wenn Nutzer nur den Schließen-Button drücken, fehlt es an Attraktivität.
Seiten zum “Problemlöser” machen
- Relevanz optimieren: Prüfen Sie Ziel-Keywords auf “Unterfragen” (z. B. Anmeldezeiten, Dokumente) und decken Sie diese ab.
- Ladegeschwindigkeit verbessern: Bilder komprimieren, Code bereinigen, Zielwert < 2 Sek.
- Interaktionselemente: FAQ-Listen, Prozessdiagramme oder Kommentarbereiche hinzufügen, um die Verweildauer zu erhöhen.
Verkürzung der Verweildauer
Die Verweildauer ist das Ergebnis der “Abstimmung mit den Füßen” – je kürzer sie ist, desto eher hält Google die Seite für “wertlos”.
Daten von Google Core Web Vitals 2024 zeigen: Seiten mit einer Verweildauer unter 15 Sek. ranken im Schnitt 37 Plätze schlechter als solche mit über 30 Sek.
Inhalt “löst Nutzerfragen nicht”
| Ursachentyp | Typisches Phänomen | Auswirkung auf Verweildauer |
|---|---|---|
| Fragmentierte Inhalte | Nur Auflistung von Wissen (z. B. UI-Tools genannt, aber keine Anwendungsszenarien) | Dauer < 15 Sek. |
| Verwirrende Struktur | Lange Textwüsten ohne Absätze, unklare Zwischenüberschriften | Dauer < 20 Sek. |
| Informationsmangel | Fehlende Details (z. B. UI-Kurs ohne Gehaltsaussichten oder Portfolio-Beispiele) | Dauer < 25 Sek. |
Eine Berufsschule verzeichnete auf der Seite “UI-Design-Kurs” nur Softwarenamen ohne Praxisprojekte. Die Verweildauer sank von 42 Sek. auf 11 Sek., das Ranking fiel von Platz 3 auf 18.
Inhalte “wertvoll und lesbar” machen
Details ergänzen: Beantworten Sie Unterfragen (z. B. “Auch für Quereinsteiger?”) mit konkreten Daten. Struktur optimieren: Nutzen Sie Zwischenüberschriften und Praxisbeispiele. Lesehürden senken: Listen statt Fließtext verwenden und Wichtiges fett markieren.
Störende Werbung/Pop-ups
Google warnt: “Seiten mit Werbung, die das Nutzererlebnis massiv stören, werden abgestraft.” Besonders auf Mobilgeräten senken Pop-ups, die den Hauptinhalt verdecken, die CTR um 25 % und das Ranking um ca. 22 Plätze.
Je “mehr” und “aufdringlicher”, desto gefährlicher
Pop-ups, die 80 % des Bildschirms einnehmen, führen dazu, dass 63 % der Nutzer die Seite sofort schließen. Werbeanteile sollten 20 % des Inhalts nicht überschreiten und Schließen-Buttons müssen deutlich sichtbar sein.
Verlust von Backlinks
Backlinks sind Googles “Stimmzettel” für Vertrauen. Seiten, die mehr als 10 % ihrer Backlinks verlieren, fallen im Schnitt um 27 Ranking-Plätze.
Wenn Partner Links entfernen oder Seiten auf 404 laufen, sinkt die Autorität. Nutzen Sie Tools wie Ahrefs, um verlorene Links aufzuspüren und proaktiv um Wiederherstellung zu bitten oder Ersatz zu suchen.
Einfluss von Core-Algorithm-Updates
Google führt mehrmals jährlich Core-Updates durch. Mit jedem Update ändern sich die Kriterien für die “Seitenqualität”.
Ob “Helpful Content” oder technische Metriken – das Ziel ist immer die Priorisierung von Seiten, die Nutzerprobleme lösen. Folgen Sie dem Google Search Central Blog für aktuelle Strategien.
Verschärfter Keyword-Wettbewerb
SEO-Wettbewerb ist dynamisch. Wenn Konkurrenten bessere Inhalte (länger, datengestützt, mehr Autorität) veröffentlichen, sinkt Ihr Ranking relativ dazu.
Nutzen Sie Long-Tail-Keywords und ergänzen Sie exklusive Inhalte (z. B. eigene Umfragen), um sich abzuheben.
Änderung der Suchintention
Die Suchintention ist das “wahre Bedürfnis” – von reiner Information hin zu konkreten Lösungen. Google-Bereiche wie “Ähnliche Fragen” zeigen, was Nutzer aktuell wirklich wissen wollen. Passen Sie Ihre Inhalte entsprechend an.
Website-Hacking
Hacking ist eine “Sicherheits-Deadline”. Gehackte Seiten werden als “unsicher” markiert, was die CTR um 41 % und die Indexierung um 22 % einbrechen lässt.
Prüfen Sie regelmäßig den Sicherheitsbericht in der Google Search Console. Schließen Sie Sicherheitslücken sofort und beantragen Sie eine erneute Prüfung durch Google.
Fehler in strukturierten Daten
Strukturierte Daten fungieren als “Übersetzer” für Google. Korrekte Markups führen zu Rich Results (Sterne, Preise) und steigern die CTR um 28 %. Nutzen Sie Validierungs-Tools, um Syntaxfehler auszuschließen.
Saisonale/Zyklische Schwankungen
Nachfrage ändert sich nach Saison oder Ereignissen. Ein Ranking-Abfall kann schlicht das “Ende der Saison” bedeuten. Nutzen Sie Google Trends zur Vorhersage und aktualisieren Sie Inhalte 1-2 Monate vor dem Peak.
Diese plötzlichen Abstürze passieren selten, weil “Google Sie persönlich ins Visier genommen hat”.
Fazit: SEO bedeutet nicht, dem Algorithmus hinterherzulaufen, sondern “Wert für den Nutzer zu schaffen”.
Wie kann ich Sie bei den nächsten Schritten unterstützen?






