Chi si occupa di Google SEO sa bene che gli strumenti sono la leva dell’efficienza. Prendiamo Screaming Frog: questo crawler può completare in 20 minuti il lavoro di 8 ore di un operatore umano: è in grado di scansionare ogni URL del tuo sito, individuando con precisione da 80 a 120 problemi SEO comuni (come link rotti 404, titoli duplicati, immagini senza attributo Alt).
Questo articolo ti guiderà dall’installazione alla messa in pratica dei dati, trasformando Screaming Frog nel tuo “microscopio SEO”.

Table of Contens
ToggleInstallazione e impostazioni di base
Installare Screaming Frog sembra un’operazione semplice da “pochi clic su avanti”, ma alcuni utenti hanno riferito che, non prestando attenzione alla compatibilità del sistema, la versione per Mac risultava rallentata, con una velocità di scansione inferiore del 40% rispetto alla norma;
altri hanno impostato casualmente la profondità di scansione, col risultato che per un piccolo sito ci sono volute 2 ore senza finire di scansionare le pagine principali.
Preparazione prima dell’installazione
1. Compatibilità del sistema
Screaming Frog supporta Windows 10/11 (64 bit) e macOS 10.15 e versioni successive. Se il tuo computer utilizza Windows 7 o macOS 10.14, il download del pacchetto di installazione indicherà “incompatibile” e l’esecuzione forzata potrebbe causare crash (test pratici mostrano un tasso di crash del 35% per gli utenti Win7).
2. Problemi di autorizzazione
- Windows: si consiglia l’installazione tramite account amministratore (tasto destro sul pacchetto → “Esegui come amministratore”), altrimenti l’insufficienza di permessi potrebbe impedire il salvataggio dei dati (errore comune: “impossibile salvare il file di log”).
- Mac: è necessario disattivare la “Protezione integrità di sistema” (SIP)? No, ma al primo avvio potrebbe essere necessario cliccare su “Apri comunque” in “Preferenze di sistema → Sicurezza e Privacy”, altrimenti verrà bloccato (circa il 20% degli utenti Mac si ferma a questo passaggio).
3. Ambiente di rete
Prima della scansione, chiudi i software proxy (come VPN, acceleratori); una latenza di rete locale superiore a 200ms causerà un calo della velocità di scansione del 50% (test pratico: con 200ms di latenza, 10 URL al secondo; con 50ms di latenza, 25 URL al secondo).
Installazione ufficiale
Sistema Windows
- Visita il sito ufficiale di Screaming Frog (www.screamingfrog.co.uk) e clicca su “Download Free Version” (la versione gratuita è sufficiente per siti medio-piccoli);
- Scegli “Windows Installer” e, a download completato, fai doppio clic per eseguire;
- Segui le istruzioni per scegliere il percorso di installazione (si consiglia il disco C predefinito per evitare la perdita dei file di configurazione), spunta “Crea collegamento sul desktop” e clicca su “Installa”;
- Al termine, apparirà l’icona del ragno verde sul desktop, fai doppio clic per aprire.
Sistema macOS
- Scarica sempre dal sito ufficiale, scegliendo “macOS DMG”;
- Fai doppio clic sul file .dmg scaricato e trascina l’icona di “Screaming Frog SEO Spider” nella cartella “Applicazioni”;
- Al primo avvio, il sistema potrebbe avvisare che “impossibile aprire perché proviene da uno sviluppatore non identificato”, vai su “Preferenze di sistema → Sicurezza e Privacy” e clicca su “Apri comunque”.
4 Impostazioni di base
Dopo l’installazione, al primo avvio del software è necessario configurare i parametri dello “Spider”.
Se configurati in modo errato, i dati scansionati successivamente potrebbero essere del tutto inutili.
User Agent
- Funzione: comunica al server del sito “chi sono”; lo User Agent del crawler di Google è “Mozilla/5.0 (compatible; Googlebot/2.1; +[http://www.google.com/bot.html](http://www.google.com/bot.html))”.
- Metodo di impostazione: clicca sul menu in alto “Configuration → Spider”, nel menu a tendina “User Agent” seleziona “Googlebot” (il predefinito è “Screaming Frog”).
- Perché è importante: se usi lo User Agent predefinito “Screaming Frog”, alcuni siti bloccheranno il crawler (ad esempio impostando “Disallow: /screamingfrog”), impedendo la scansione; usando “Googlebot” simulerai il vero crawler di Google, ottenendo dati più vicini alla realtà (test pratico: dopo il cambio, il successo di scansione di un sito e-commerce è passato dal 65% al 92%).
Profondità di scansione (Crawl Depth)
- Definizione: partendo dalla home page, quanti livelli di clic seguire al massimo (es. home page → categoria → prodotto sono 3 livelli).
- Consigli di impostazione:
- Siti medio-piccoli (pagine ≤ 1000): imposta 5 livelli (copre oltre il 90% delle pagine principali);
- Siti grandi (pagine > 1000): imposta 10 livelli, ma da abbinare a “limite quantità URL” (vedi sotto) per evitare tempi eccessivi.
Limite quantità URL (Max URLs to Crawl) •
- Funzione: evita che il software scansioni all’infinito a causa di troppi link (come forum o pagine a scorrimento infinito).
- Metodo di impostazione: in “Configuration → Spider” spunta “Limit number of URLs to crawl” e inserisci un valore (per siti piccoli 5000-10000, per siti grandi non oltre 50.000).
- Conseguenze della mancata impostazione: un utente ha scansionato un sito e-commerce con link dinamici per i “prodotti consigliati” e, senza limiti, il software ha girato per 24 ore catturando 230.000 URL (di cui l’80% erano pagine di dettaglio prodotto duplicate).
Escludere parametri (Exclude Parameters)
- Problema: molti URL contengono parametri extra (es. ?utm_source=weibo, ?page=2) che non cambiano il contenuto ma vengono visti come URL diversi, causando scansioni duplicate.
- Metodo di impostazione: clicca su “Configuration → Exclude”, in “Query Parameters” inserisci i parametri da filtrare (separati da virgola), come “utm_source,utm_medium,page”.
- Effetto: un sito educativo, dopo aver filtrato 12 parametri di tracciamento, ha ridotto gli URL da 12.000 a 4500, accorciando i tempi del 40%.
Eseguire una “mini scansione” della home page
Completate le impostazioni, non affrettarti a scansionare tutto il sito: inserisci l’URL della home, clicca su “Start” e fai un test su piccola scala (limite 100 URL) per controllare 3 cose:
- Mancanza di pagine chiave: es. se i link “Chi siamo” o “Contatti” nella navigazione sono stati catturati (cerca le parole chiave nel report “Internal”);
- Presenza di URL duplicati: nel report “URL”, verifica se esistono versioni diverse della stessa pagina con parametri differenti;
- Trigger di 404: controlla i codici di stato 404 in “Response Codes” per assicurarti di non scansionare pagine eliminate.
In caso di problemi, torna in “Configuration” e aggiusta i parametri prima di riprovare.
Avvio rapido di una scansione di base
Molti pensano che basti cliccare “Start”, ma in realtà il 30% delle persone ottiene dati inutili per aver trascurato i dettagli.
Per esempio: c’è chi avvia senza controllare la rete e si blocca a metà per latenza eccessiva; chi non mette limiti e scansiona per ore duplicati; chi sbaglia formato URL e ottiene “0 risultati”.
3 controlli pre-avvio
1. Conferma impostazioni di base
- User Agent: deve essere “Googlebot” (controlla in “Configuration → Spider”), altrimenti il sito potrebbe bloccarti.
- Profondità: regola in base al sito (5 livelli per siti piccoli, 10 per grandi).
- Esclusione parametri: filtra i parametri inutili (es. ?utm_source) per ridurre i duplicati.
2. Test stabilità di rete
- Requisiti latenza: la latenza verso il sito target dovrebbe essere ≤100ms (usa il comando “ping dominio”).
- Latenza ≤100ms: scansione di 20-30 URL al secondo;
- Latenza 100-200ms: scansione di 10-15 URL al secondo;
- Latenza >200ms: scansione <10 URL al secondo, i tempi raddoppiano.
- Evita interferenze: chiudi VPN, acceleratori o programmi di download.
3. Verifica accessibilità sito target
- Inserisci l’URL target nel browser per assicurarti che si apra correttamente (evita di scansionare pagine con errore “403 Accesso negato”).
- Se il sito ha restrizioni di accesso (es. area membri), effettua il logout (Screaming Frog non gestisce lo stato di login e otterresti pagine vuote o errori 403).
Operazione in 4 passi, risultati in 10 minuti
1. Inserisci l’URL target
- Formato richiesto: devi inserire l’URL completo (con http:// o https://), altrimenti il software darà errore “URL non valido”.
- Esempio: corretto “[https://www.example.com](https://www.example.com)”, errato “[www.example.com](https://www.example.com)”.
2. Imposta condizioni limitanti (consigliato)
- Limite URL: in “Configuration → Spider” spunta “Limit number of URLs to crawl”.
- Escludi pagine specifiche: in “Configuration → Exclude” aggiungi regole “Disallow” (es. pagine admin “/admin/”).
3. Clicca “Start” e osserva lo stato
- Barra di avanzamento: in alto (verde=normale, giallo=lento, rosso=bloccato).
- Barra di stato: in basso a destra mostra gli URL catturati e la velocità.
4. Gestione problemi in corso
- Blocco: controlla la rete; se ricevi errori 403, prova a cambiare lo User Agent in “Bingbot” (alcuni siti sono meno restrittivi con esso).
Scansione completata
Al termine, il software avviserà “Crawl Completed”. Controlla 3 aspetti per confermare la qualità dei dati:
1. La quantità totale è ragionevole?
2. Le pagine chiave sono presenti? (Cerca in “Internal”).
3. Ci sono troppi codici di errore? (Controlla 404, 500, 301/302).
Interpretazione dei report SEO (focalizzati su questi 6)
Si dice che “i dati non mentono”, ma tra i molti report di Screaming Frog, le informazioni che influenzano il ranking di Google sono in questi 6 report.
Report Response Codes
Registra il codice di stato HTTP di ogni pagina. Se il codice è errato, i crawler potrebbero saltare la pagina.
- 200 (OK): dovrebbe essere >85%.
- 404 (Link rotto): esporta la lista → controlla l’origine → rimuovi il link o imposta un redirect 301.
Report Lunghezza e Struttura URL
La pazienza dei crawler di Google per gli URL lunghi è limitata; più l’URL è lungo, minore è la probabilità che venga scansionato interamente.
- Distribuzione lunghezza: l’ideale è <80 caratteri. Se >100, accorcia il percorso.
Report Page Titles (Tag Titolo)
Il titolo è il nucleo su cui Google giudica l’argomento della pagina; titoli duplicati o non validi abbassano direttamente il ranking.
- Tasso di duplicazione: assicurati che ogni pagina abbia un titolo unico.
- Lunghezza: l’ideale è 50-60 caratteri.
Report Meta Description
Non influenzano direttamente il ranking, ma decidono se l’utente cliccherà sulla tua pagina.
- Mancanza: scrivi descrizioni per le pagine che ne sono prive (150-160 caratteri).
Report Tag H1
L’H1 è il titolo principale della pagina; Google lo usa per capire il contenuto centrale (meglio averne solo uno per pagina).
Report Attributo Alt Immagini
L’attributo Alt è la descrizione testuale; la sua assenza spreca traffico dalla ricerca immagini.
Controllo massivo dei link interni
Siti che non controllano i link interni hanno spesso il 15-20% delle pagine non indicizzate correttamente.
Link interni rotti
Puntano a pagine eliminate o inaccessibili (404). Gli utenti abbandonano il sito e i crawler riducono la frequenza di scansione.
Azione: rimuovi i link o sostituiscili con link validi.
Pagine orfane
Pagine con contenuti ma senza alcun link interno che punti a loro. La probabilità di indicizzazione è inferiore del 60%.
Azione: aggiungi link interni verso le pagine di valore.
Concentrazione dell’autorità
Troppi link dalla home page disperdono l’attenzione del crawler, riducendo le opportunità di scansione per altre pagine importanti.
3 trucchi per la gestione massiva
- Usa Excel per filtrare i problemi frequenti.
- Priorità ai link nelle pagine ad alta autorità (Home, categorie).
- Revisione periodica: scansiona ogni due settimane per monitorare la salute della struttura.
Infine, lo strumento è solo un supporto; il cuore del ranking di Google sarà sempre il “contenuto di cui l’utente ha bisogno“






