微信客服
Telegram:guangsuan
电话联系:18928809533
发送邮件:[email protected]

Come usare Screaming Frog per la SEO|Guida all’uso 2025

本文作者:Don jiang





Guida SEO Google con Screaming Frog

Chiunque si occupi di SEO per Google sa che gli strumenti sono la leva dell’efficienza. Prendendo Screaming Frog come esempio, questo strumento di crawling può completare in 20 minuti il carico di lavoro di 8 ore di un essere umano: è in grado di scansionare ogni URL del tuo sito web, individuando con precisione 80-120 problemi SEO comuni (come link rotti 404, titoli duplicati, immagini senza attributo Alt).

Questo articolo ti guiderà dall’installazione alle impostazioni fino all’analisi dei dati, trasformando Screaming Frog nel tuo “microscopio SEO”.

Come usare Screaming Frog per la SEO

Installazione e Impostazioni di Base

Installare Screaming Frog sembra un’operazione semplice come “fare clic su avanti”, ma alcuni utenti hanno riferito che, non prestando attenzione alla compatibilità del sistema, la versione per Mac ha subito rallentamenti, con una velocità di scansione inferiore del 40% rispetto al normale.

Altri impostano la profondità di scansione in modo casuale, con il risultato che siti di piccole dimensioni impiegano 2 ore senza aver ancora scansionato le pagine principali.

Preparazione prima dell’installazione

1. Compatibilità del sistema

Screaming Frog supporta Windows 10/11 (64 bit) e macOS 10.15 e versioni successive. Se il tuo computer utilizza Windows 7 o macOS 10.14, il download del pacchetto di installazione mostrerà un avviso di “incompatibilità” (il tasso di crash degli utenti Win7 è di circa il 35%).

2. Problemi di permessi

  • Windows: Si consiglia di installare con un account amministratore (tasto destro sull’installer → “Esegui come amministratore”), altrimenti potrebbe non essere possibile salvare i dati di scansione a causa di permessi insufficienti.
  • Mac: Non è necessario disattivare la “Protezione integrità del sistema” (SIP), ma al primo avvio potrebbe essere necessario cliccare su “Apri comunque” in “Preferenze di Sistema → Sicurezza e Privacy”.

3. Ambiente di rete

Chiudi i software proxy (come VPN o acceleratori) prima della scansione. Una latenza di rete locale superiore a 200 ms ridurrà la velocità di scansione del 50% (test reale: 10 URL/sec con 200 ms di latenza; 25 URL/sec con 50 ms).

Installazione Ufficiale

Sistema Windows

  1. Visita il sito ufficiale di Screaming Frog (www.screamingfrog.co.uk) e clicca su “Download Free Version”.
  2. Seleziona “Windows Installer” ed esegui il file dopo il download.
  3. Segui le istruzioni e scegli il percorso predefinito (disco C) per evitare la perdita dei file di configurazione.
  4. Al termine dell’installazione, l’icona del ragno verde apparirà sul desktop; fai doppio clic per aprire.

Sistema macOS

  • Scarica la versione “macOS DMG” dal sito ufficiale.
  • Fai doppio clic sul file .dmg e trascina l’icona di Screaming Frog nella cartella “Applicazioni”.
  • Se il sistema blocca l’apertura, vai in “Impostazioni di Sistema → Privacy e Sicurezza” e clicca su “Apri comunque”.

4 Impostazioni Fondamentali

Al primo avvio del software, è necessario configurare i parametri dello “Spider” (Ragno).

Se configurati in modo errato, i dati scansionati successivamente potrebbero essere totalmente inutili.

User Agent (Agente Utente)

  • Funzione: Dire al server del sito “chi sono”. L’User Agent del crawler di Google è “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”.
  • Metodo: Menu superiore [Configuration → Spider], nel menu a discesa “User Agent” scegli “Googlebot”.
  • Perché è importante: Usare l’impostazione predefinita può causare il blocco della scansione da parte di alcuni siti. Simulare Googlebot permette di ottenere dati più vicini alla realtà.

Crawl Depth (Profondità di Scansione)

  • Definizione: Quanti livelli di clic partendo dalla home page (es. Home → Categoria → Prodotto = 3 livelli).
  • Raccomandazione: 5 livelli per siti piccoli/medi; 10 livelli per siti grandi (con limite di URL).

Max URLs to Crawl (Limite di URL)

  • Funzione: Impedire al software di scansionare all’infinito su siti con link dinamici (come forum o scroll infinito).
  • Metodo: In [Configuration → Spider], spunta “Limit number of URLs to crawl” e inserisci un valore (es. 5.000-10.000).

Exclude Parameters (Escludi Parametri)

  • Problema: I parametri URL (es. ?utm_source) creano URL duplicati per il crawler.
  • Metodo: In [Configuration → Exclude], inserisci i parametri da filtrare separati da virgole.

Avvio Rapido di una Scansione di Base

Non scansionare tutto il sito immediatamente. Inserisci l’URL iniziale e fai un test su piccola scala (limite 100 URL) per verificare che le pagine principali siano catturate e non ci siano errori gravi.

3 Verifiche prima di iniziare

1. Configurazione Validata

  • User Agent: Deve essere impostato su “Googlebot”.
  • Profondità: Adeguata alla dimensione del sito.

2. Stabilità della rete

Assicurati che la latenza verso il sito di destinazione sia bassa ed evita l’uso di strumenti di download in parallelo.

3. Accessibilità del sito

Verifica che il sito carichi normalmente nel browser per evitare errori 403 o blocchi del firewall.

Interpretazione dei Report SEO (Focalizzati su questi 6)

Risolvere questi 6 tipi di problemi può aumentare il tasso di indicizzazione dei siti piccoli e medi dal 65% all’85%.

Report dei Codici di Risposta (Response Codes)

  • 200 (Normale): Dovrebbe essere > 85%.
  • 404 (Link Rotto): Esporta l’elenco e correggi i link interni o applica reindirizzamenti 301.

Struttura e Lunghezza degli URL

  • Lunghezza: Idealmente inferiore a 80 caratteri.

Report dei Titoli di Pagina (Page Titles)

Il titolo è fondamentale affinché Google valuti l’argomento della pagina. Titoli duplicati o inefficaci riducono direttamente il ranking.

  • Duplicati: Filtra “Duplicate Titles” e assegna un titolo unico a ogni pagina.
  • Lunghezza: L’ideale è tra 50-60 caratteri.

Meta Descriptions

Decidono se l’utente cliccherà o meno sul tuo risultato (CTR).

Report dei Tag H1

Google usa l’H1 per comprendere il contenuto centrale. Dovrebbe esserci solo un H1 per pagina.

Attributi Alt delle Immagini

La mancanza di attributi Alt spreca il traffico proveniente dalla ricerca immagini di Google.

Gestione dei Link Interni

Una buona struttura di link interni può aumentare l’efficienza della scansione di oltre il 30%.

  • Pagine Orfane: Pagine senza alcun link interno che punti a esse.
  • Link Interni Rotti: Devono essere rimossi o aggiornati immediatamente.

Infine, lo strumento è solo un assistente. Il cuore del ranking su Google sarà sempre il “Contenuto di cui l’utente ha bisogno”.

Ti piacerebbe che ti aiutassi a creare una checklist specifica per iniziare a scansionare il tuo sito web?


滚动至顶部