Table of Contens
ToggleUtilizza lo strumento ufficiale di Google per inviare una richiesta di “rimozione di contenuti obsoleti”
Invece di aspettare passivamente che il sistema si aggiorni, la Search Console di Google offre una funzione di “rimozione temporanea” che consente un intervento diretto sui risultati di ricerca.
È come inviare un “segnale di aggiornamento forzato” ai server di Google, utile per pagine di prodotto eliminate, promozioni scadute e altri scenari urgenti. L’effetto può vedersi entro 12 ore.
Accesso preciso alla funzione
- Accedi alla Google Search Console, quindi seleziona “Rimozioni” nella barra laterale sinistra (non “Controllo URL”)
- Fai clic su “Nuova richiesta” → scheda “Rimozione temporanea” (non selezionare l’opzione permanente)
Requisiti per poter inviare l’URL
- Assicurati che la pagina restituisca uno status HTTP 404 o 410 (verifica tramite strumenti come httpstatus.io)
- Se la pagina è reindirizzata, rimuovi il reindirizzamento prima dell’invio
- Esempio: vecchia pagina prodotto eliminata
https://example.com/product-123
Consigli pratici per accelerare la rimozione
- Spunta anche l’opzione “Cancella link memorizzato nella cache” (è nascosta di default, bisogna espanderla manualmente)
- Per molteplici pagine, usa la funzione “Rimozione tramite parametro” (es. URL contenenti
?id=123
) - Durata della rimozione temporanea: circa 6 mesi (poi va reinviata)
Motivi comuni di fallimento
- ❌ La pagina restituisce ancora codice 200 (non è stata davvero eliminata)
- ❌ La proprietà del sito non è stata verificata (verifica via DNS o file HTML)
- ❌ L’URL inviato contiene
#
(invia solo l’URL base)
Controllo dello stato della richiesta
Nel pannello “Rimozioni”, puoi vedere:
- ✅ Verde “Approvata”: il contenuto è stato rimosso dai risultati di ricerca
- ⏳ “In sospeso”: la richiesta è stata ricevuta (in genere elaborata entro 24 ore)
- ❗ “Errore”: correggi lo stato della pagina e reinvia la richiesta
Trucchi per aggiornare manualmente la cache
Aggiornare manualmente la cache è un modo per forzare la scansione della pagina, utile in caso di date, prezzi o contenuti obsoleti.
Puoi “ingannare” il bot di Google affinché riprenda il contenuto. Nei test, circa il 50% dei casi mostra aggiornamenti entro 3 giorni.
Percorso nascosto al pulsante di aggiornamento cache
- Nel campo di ricerca di Google, digita
cache:la-tua-url
(es:cache:example.com/news
) - Nota: se è disponibile una versione aggiornabile, in alto a destra apparirà il pulsante “Aggiorna questa copia cache” (non sempre visibile)
- Facendo clic, la pagina entra nella coda prioritaria per la nuova indicizzazione
Forzare la reindicizzazione in modalità in incognito
- Apri la pagina in modalità in incognito su Chrome e aggiorna 5 volte di seguito
- Consiglio avanzato: aggiungi un parametro casuale alla fine dell’URL, ad esempio
?v=20230828
- Logica: attiva l’algoritmo basato sul comportamento dell’utente, aumentando la priorità di scansione
Tecnica del cache-bypass locale
- Premi
F12
per aprire la console del browser → scheda “Network” - Spunta “Disable cache” e ricarica la pagina (per evitare il caching locale)
- Dopo 3 esecuzioni, Googlebot può trattarla come contenuto instabile e rielaborarla
Note importanti
- ❗ Le pagine caricate via JavaScript richiedono almeno 3 ripetizioni
- ❗ Per aggiornare la cache mobile, usa modalità in incognito da cellulare
- ✅ Combina con “Controllo URL” della Search Console per monitoraggio
Configurazione corretta del 404 per pagine eliminate
Molti webmaster pensano che “eliminare una pagina = problema risolto”, ma una configurazione errata del 404 può creare problemi SEO.
Google può continuare a scansionare una “pagina fantasma”, mantenendo vecchi dati memorizzati. Peggio ancora, se la pagina restituisce codice 200 ma non ha contenuto (soft 404), può abbassare l’affidabilità del sito.
Verifica rigorosa dello stato HTTP
Usa estensioni come HTTP Status o il comando curl -I URL
Lo stato deve essere 404/410, non 200 o 302 (comune se la pagina è reindirizzata alla home)
- Esempio: nei siti WordPress, disattiva i plugin che reindirizzano le pagine eliminate ad articoli simili
Blocca URL residui tramite robots.txt
Nel file robots.txt aggiungi: Disallow: /percorso-della-pagina-eliminata/
(supporta caratteri jolly *
)
Blocca la scansione mentre invii un rapporto di test del robots.txt nella Search Console
- Avviso: il file robots.txt non impedisce la visualizzazione delle versioni cache delle pagine già indicizzate
Strategia per i reindirizzamenti 301
Usa il reindirizzamento 301 solo se esiste un contenuto alternativo (es. prodotto vecchio → nuova pagina di categoria)
La pagina di destinazione deve essere strettamente correlata al contenuto originale (per evitare dispersione di autorità)
- Evita reindirizzamenti a catena (es. pagina A → pagina B → nuova pagina C)
Scenari ad alto rischio
- ❌ Mostrare un messaggio 404 tramite JavaScript (i crawler potrebbero considerarla una pagina valida)
- ❌ Una pagina 404 personalizzata con barra di navigazione o casella di ricerca (potrebbe essere interpretata come un soft 404)
- ✅ Pratica corretta: una pagina 404 semplice con solo un messaggio testuale, senza link interni
Strumenti utili
- Search Console di Google → rapporto sulla copertura → filtra per “inviata ma non indicizzata”
- Scansione del sito con Screaming Frog → filtra le pagine con errore “Client Error 4xx”
- Strumenti SEO di terze parti (come Ahrefs) per monitorare i backlink che puntano a pagine non valide
(Esempio di configurazione: su server Apache usare ErrorDocument 404 /error-404.html
, su Nginx aggiungere error_page 404 /404.html;
al file di configurazione)
Trucco per aggiornamenti in massa: Sitemap XML
Per i siti con molte pagine obsolete (es. prodotti fuori catalogo, articoli eliminati), aggiornare una per una è inefficiente.
La sitemap XML è il “pass ufficiale” approvato da Google per aggiornamenti di massa, riducendo il tempo di indicizzazione da settimane a circa 72 ore.
Generare sitemap dinamiche e precise
Usa strumenti (Screaming Frog/plugin WordPress) per scansionare il sito e filtrare automaticamente le pagine 404
Mantieni il tag <lastmod>
per le pagine valide (formato: 2023-08-28T12:00:00+00:00
)
- Errore comune: includere URL di pagine eliminate può causare scansioni ripetute da parte di Google
Strategia di invio forzato nella Search Console
Dopo aver caricato il nuovo sitemap.xml, clicca su “Test” per verificare i link errati
Nel menu accanto al pulsante “Invia”, scegli “Scansiona di nuovo” invece del semplice invio
Per siti ad alto volume, suddividere la sitemap (es. product-sitemap.xml, news-sitemap.xml)
Integrazione tra sitemap e robots.txt
Aggiungi nella prima riga del file robots.txt:
sitemap: https://iltuodominio/sitemap.xml
Le pagine bloccate devono essere rimosse anche dalla sitemap (per evitare conflitti)
- Esempio: rimuovere dalla sitemap pagine di vecchi cataloghi e aggiungere
<noindex>
Accelerare l’efficacia
- Usa il tag
<priority>0.8</priority>
nella sitemap per le pagine più importanti - Genera automaticamente la sitemap ogni giorno (impostando un’attività pianificata, ad es. tramite Baota Panel)
- Utilizza l’Indexing API per aggiornamenti in tempo reale (richiede sviluppo personalizzato)
Metriche di monitoraggio
- Controlla nella Search Console la proporzione tra “pagine scoperte” e “pagine indicizzate”
- Utilizza Google Analytics per filtrare le fonti di traffico verso le pagine 404
- Usa DeepCrawl ogni settimana per confrontare sitemap e pagine reali
(Esempio: su WordPress si può usare il plugin RankMath per generare sitemap dinamiche e sincronizzarle con il database ogni ora)
L’aggiornamento dell’indicizzazione da parte di Google può richiedere da 1 a 3 giorni. Non inviare ripetutamente. Se non ci sono risultati dopo 72 ore, verifica eventuali redirect residui o errori nel file robots.txt.