微信客服
Telegram:guangsuan
电话联系:18928809533
发送邮件:[email protected]

So nutzen Sie Screaming Frog für SEO|Anwenderleitfaden 2025

本文作者:Don jiang

Jeder, der mit Google SEO zu tun hat, weiß, dass Tools die Hebel für Effizienz sind. Am Beispiel von Screaming Frog: Dieses Crawler-Tool kann das Arbeitspensum von 8 Stunden manueller Arbeit in weniger als 20 Minuten erledigen. Es erfasst jede URL Ihrer Website und identifiziert präzise 80–120 gängige SEO-Probleme (wie 404-Deadlinks, doppelte Titel, Bilder ohne Alt-Attribute usw.).

In diesem Artikel führen wir Sie von der Installation und Konfiguration bis hin zur Datennutzung, um den Screaming Frog in Ihr “SEO-Mikroskop” zu verwandeln.

Wie man Screaming Frog für SEO nutzt

Installation und Basiskonfiguration

Die Installation von Screaming Frog scheint eine einfache “Klick auf Weiter”-Angelegenheit zu sein. Es gibt jedoch Berichte, dass die Mac-Version langsam wurde und die Crawling-Geschwindigkeit um 40% unter dem Normalwert lag, weil bei der Installation nicht auf die Systemkompatibilität geachtet wurde.

Einige Nutzer stellten die Crawl-Tiefe willkürlich ein, was dazu führte, dass eine kleine Website nach 2 Stunden immer noch nicht alle Hauptseiten erfasst hatte.

Vorbereitung vor der Installation

1. Systemkompatibilität

Screaming Frog unterstützt Windows 10/11 (64-Bit) und macOS 10.15 oder höher. Wenn Ihr Computer Windows 7 oder macOS 10.14 verwendet, zeigt der Installer “nicht kompatibel” an. Ein erzwungenes Ausführen kann zum Absturz führen (Messung: Die Absturzrate bei Win7-Nutzern liegt bei ca. 35%).

2. Berechtigungsprobleme

  • Windows: Es wird empfohlen, mit einem Administratorkonto zu installieren (Rechtsklick auf den Installer → “Als Administrator ausführen”). Andernfalls können Crawl-Daten aufgrund fehlender Rechte eventuell nicht geschrieben werden (Häufiger Fehler: “Log-Datei kann nicht gespeichert werden”).
  • Mac: Ein Deaktivieren des “System Integrity Protection” (SIP) ist nicht nötig, aber beim ersten Start müssen Sie eventuell unter “Systemeinstellungen → Sicherheit & Datenschutz” auf “Dennoch öffnen” klicken (ca. 20% der Mac-Nutzer scheitern an diesem Schritt).

3. Netzwerbumgebung

Schalten Sie vor dem Crawlen Proxy-Software (wie VPNs oder Beschleuniger) aus. Wenn die Latenz des lokalen Netzwerks 200ms überschreitet, sinkt die Crawling-Geschwindigkeit um 50% (Messung: Bei 200ms Latenz werden 10 URLs/Sek. gecrawlt; bei 50ms sind es 25 URLs/Sek.).

Formelle Installation

Windows-System

  1. Besuchen Sie die offizielle Screaming Frog Website (www.screamingfrog.co.uk) und klicken Sie auf “Download Free Version” (die kostenlose Version reicht für kleine und mittlere Seiten oft aus).
  2. Wählen Sie “Windows Installer” und führen Sie die Datei nach dem Download per Doppelklick aus.
  3. Wählen Sie den Installationspfad (Standardpfad auf C: empfohlen, um den Verlust von Konfigurationsdateien zu vermeiden) und klicken Sie auf “Install”.
  4. Nach der Installation erscheint ein grünes Spinnen-Icon auf dem Desktop; doppelklicken Sie zum Öffnen.

macOS-System

  • Wählen Sie “macOS DMG” von der offiziellen Website zum Download.
  • Doppelklicken Sie auf die .dmg-Datei und ziehen Sie das “Screaming Frog SEO Spider”-Icon in den “Programme”-Ordner.
  • Falls das System beim ersten Öffnen meldet, dass der Entwickler nicht verifiziert werden kann, gehen Sie zu “Systemeinstellungen → Sicherheit & Datenschutz” und klicken Sie auf “Dennoch öffnen”.

4 grundlegende Einstellungen

Nach der Installation müssen beim ersten Start die Parameter des “Spider” konfiguriert werden.

Wenn Sie hier Fehler machen, könnten die später gecrawlten Daten völlig wertlos sein.

User Agent

  • Rolle: Teilt dem Server der Website mit, “wer ich bin”. Der User Agent des Google-Crawlers lautet “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”.
  • Einstellung: Klicken Sie im Menü auf “Configuration → Spider”, wählen Sie den Tab “User Agent” und stellen Sie ihn auf “Googlebot” (Standard ist “Screaming Frog”).
  • Warum wichtig: Bei der Standardeinstellung blockieren manche Seiten den Crawler (z. B. “Disallow: /screamingfrog”). Mit “Googlebot” simulieren Sie den echten Google-Crawler und erhalten realistischere Daten (Messung: Die Erfolgsquote stieg bei einer E-Commerce-Seite von 65% auf 92%).

Crawl-Tiefe (Crawl Depth)

  • Definition: Wie viele Ebenen tief der Spider von der Startseite aus Links folgt (z. B. Startseite → Kategorie → Produktseite sind 3 Ebenen).
  • Empfehlung:
    • Kleine/mittlere Seiten (≤1000 URLs): Auf 5 Ebenen einstellen (deckt >90% der wichtigen Seiten ab).
    • Große Seiten (>1000 URLs): Auf 10 Ebenen einstellen, aber in Kombination mit dem “URL-Limit” (siehe unten), um Zeitüberschreitungen zu vermeiden.

Maximale Anzahl an URLs (Max URLs to Crawl)

  • Rolle: Verhindert, dass das Tool bei Seiten mit unendlich vielen Links (Foren, Infinite-Scroll-Seiten) endlos weiterläuft.
  • Einstellung: Unter “Configuration → Spider” das Häkchen bei “Limit number of URLs to crawl” setzen und einen Wert eingeben (5.000-10.000 für kleine/mittlere, unter 50.000 für große Seiten empfohlen).
  • Risiko ohne Limit: Ein Nutzer crawlt eine Seite mit dynamischen Parametern ohne Limit; das Tool lief 24 Stunden und fand 230.000 URLs, von denen 80% duplizierte Produktseiten waren.

Parameter ausschließen (Exclude Parameters)

  • Problem: URLs enthalten oft Tracking-Parameter (z. B. ?utm_source=xyz), die den Inhalt nicht ändern, aber dazu führen, dass Screaming Frog sie als neue URLs wertet.
  • Einstellung: Unter “Configuration → Exclude” können Sie Muster oder unter “Spider → Basic” spezifische Parameter eingeben, die ignoriert werden sollen.

Ein “Test-Crawl” der Startseite

Bevor Sie die ganze Seite crawlen, geben Sie die URL der Startseite ein und führen Sie einen kleinen Test durch (begrenzt auf 100 URLs), um Folgendes zu prüfen:

  1. Werden Hauptseiten erfasst? Prüfen Sie unter “Internal”, ob Seiten wie “Über uns” gefunden wurden.
  2. Gibt es Duplikate? Prüfen Sie unter “URL”, ob dieselbe Seite mit verschiedenen Parametern mehrfach auftaucht.
  3. Gibt es 404-Fehler? Prüfen Sie unter “Response Codes”, ob gelöschte Seiten noch verlinkt sind.

Schnellstart für den Basis-Crawl

Es wird oft gedacht, man müsse nur auf “Start” drücken, aber 30% der Nutzer erhalten ungültige Daten, weil sie Details ignorieren.

3 Checks vor dem Start

1. Bestätigung der Basiskonfiguration

  • User Agent: Muss auf “Googlebot” stehen.
  • Crawl-Tiefe: An die Seitengröße angepasst.
  • Parameter-Ausschluss: Unnötiges Tracking entfernen.

2. Stabilitätstest des Netzwerks

  • Latenz sollte idealerweise unter 100ms liegen. Deaktivieren Sie VPNs während des Vorgangs.

3. Erreichbarkeit der Zielseite

  • Prüfen Sie im Browser, ob die Seite normal lädt (um 403-Fehler zu vermeiden).

4 Schritte zum Ergebnis in 10 Minuten

1. Ziel-URL eingeben

  • Format: Immer die vollständige URL inkl. http:// oder https:// verwenden.

2. Limits setzen

  • URL-Limit aktivieren, um Endlosschleifen zu vermeiden.

3. “Start” klicken und Status überwachen

  • Fortschrittsbalken oben beobachten.

4. Fehlerbehandlung

  • Bei Stillstand: Netzwerk prüfen oder “Stop” und erneut “Start” klicken.

SEO-Berichte lesen (Die 6 wichtigsten Bereiche)

Daten lügen nicht. Die wichtigsten Informationen für Ihr Google-Ranking befinden sich in diesen 6 Berichten:

Response Codes (Antwortcodes)

Wenn der Statuscode nicht stimmt, ignoriert der Crawler die Seite eventuell komplett.

  • 200 (OK): Sollte über 85% liegen.
  • 404 (Nicht gefunden): Sofort beheben oder 301-Weiterleitung einrichten.

URL-Struktur

Je länger die URL, desto geringer die Chance auf einen vollständigen Crawl. Halten Sie URLs kurz (ideal unter 80 Zeichen).

Title Tags (Seitentitel)

Der Titel ist der Kern für Google. Duplikate oder fehlende Titel schaden dem Ranking direkt.

Meta Description

Beeinflusst das Ranking nicht direkt, aber die Klickrate (CTR) der Nutzer.

H1-Tags

Google nutzt die H1, um das Hauptthema der Seite zu verstehen. Eine H1 pro Seite ist Pflicht.

Bilder-Alt-Attribute

Fehlende Alt-Texte verhindern Traffic über die Bildersuche.

Interne Verlinkung prüfen

Seiten ohne interne Links (Orphan Pages) werden zu 60% seltener indexiert.

Interne Deadlinks

Links, die auf 404-Seiten führen. Nutzer springen ab, und Crawler reduzieren ihren Besuch.

Orphan Pages (Verwaiste Seiten)

Seiten, auf die keine interne Verlinkung zeigt. Sie sind für Google kaum auffindbar.

Konzentration der Linkautorität

Zu viele Links auf der Startseite können die “Power” für wichtige Unterseiten wie Blogartikel verwässern.

Vergessen Sie nicht: Tools sind nur Hilfsmittel. Der Kern für Google-Rankings sind immer “Inhalte, die der Nutzer braucht“.

Würden Sie gerne wissen, wie man die Crawl-Ergebnisse in Excel exportiert, um automatisierte Berichte zu erstellen?

滚动至顶部