微信客服
Telegram:guangsuan
电话联系:18928809533
发送邮件:[email protected]

Come Google distingue i fatti dalle opinioni nei contenuti | e la sua importanza per la SEO

本文作者:Don jiang

Ecco la traduzione dei contenuti in italiano, mantenendo la struttura del codice HTML originale e utilizzando il tag `` per l’enfasi, come richiesto:

Google si affida al Knowledge Graph (oltre 120 milioni di entità), ai modelli NLP (accuratezza del 91% nel riconoscimento dei fatti) e alla verifica incrociata delle fonti (≥2 fonti autorevoli) per distinguere tra fatti e opinioni, garantendo la credibilità dei contenuti.

Ogni giorno avvengono oltre 50 miliardi di ricerche su Google, di cui il 38% degli utenti ha un’intenzione di ricerca volta a ottenere fatti espliciti (come “luogo della Coppa del Mondo 2024” o “intervallo normale di pressione arteriosa”). Google ha rivelato nei log algoritmici del Q2 2023 che i casi di declassamento dei risultati di ricerca dovuti a errori fattuali sono aumentati del 41% su base annua, con contenuti medici, legali e finanziari che rappresentano oltre il 60%. Quando un utente cerca “effetti collaterali vaccino Covid”, se i risultati includono “probabilità di effetti collaterali fino all’80%” (fatto esagerato) e “secondo i dati OMS, l’incidenza degli effetti collaterali comuni è di circa il 5%-10%” (fatto verificabile), il primo ha un tasso di rimbalzo del 78% dopo il clic, mentre il secondo solo del 12%.

Cosa sono i fatti e le opinioni

La necessità dell’utente quando effettua una query di ricerca è una sola: ho bisogno di una risposta certa.

Ma nella realtà, una grande quantità di contenuti sta sfumando questo confine. Ad esempio, un blog tecnologico scrive che “il nuovo modello AI è più accurato dei medici umani nella diagnosi” (opinione non supportata da dati di test specifici), ma viene inserito nella pagina dei risultati di ricerca per “ultimi progressi dell’IA medica”; un sito di viaggi afferma che “Santorini, in Grecia, è l’isola più romantica del mondo” (valutazione soggettiva), senza però indicare “basato su sondaggi tra i turisti”.

Fatti

Il cuore di un fatto è la verificabilità: deve avere un “ancoraggio” chiaro, verificabile attraverso canali indipendenti. Ad esempio:

  1. “Le spedizioni globali di smartphone nel 2023 sono state di circa 1,17 miliardi di unità (dati IDC)”
  2. “La Torre Eiffel a Parigi è alta 330 metri (misurazione ufficiale del Ministero della Cultura francese)”
  3. “Harry Potter e la pietra filosofale è uscito negli Stati Uniti il 16 novembre 2001 (database cinematografico IMDb)”.

Le caratteristiche chiave di queste affermazioni sono:

  • Contengono valori numerici, tempi, luoghi o fonti specifici (come “dati IDC”, “Ministero della Cultura francese”, “IMDb”);
  • Non dipendono da sentimenti personali, i risultati della verifica sono coerenti per persone diverse (chiunque controlli, l’altezza della Torre Eiffel è 330 metri);
  • Possono essere “falsificati” (se qualcuno dice che “le spedizioni di telefoni nel 2023 sono state 1,5 miliardi”, basta confrontare i rapporti pubblici di IDC, Counterpoint e altre agenzie per giudicare).

Consideriamo un caso facilmente confondibile: un articolo educativo scrive che “i risultati in matematica degli studenti finlandesi sono leader a livello mondiale”. Questa frase è un fatto?

  • Se si aggiunge “secondo il rapporto dei test PISA 2022 dell’OCSE, il punteggio medio in matematica degli studenti quindicenni finlandesi è di 520 punti, superiore alla media OCSE (489 punti)”, allora diventa un fatto;
  • Se si mantiene solo la frase originale (senza rapporto specifico e data), è più simile a un’opinione, poiché “leader” non ha standard di confronto e dati di supporto chiari.

Opinioni

Il cuore di un’opinione è la non verificabilità: riflette il giudizio, la preferenza o la speculazione di un individuo o di un gruppo e non può essere misurata con un unico standard di “giusto o sbagliato”. Le forme comuni di espressione di opinioni includono:

  • Valutazioni: “Questa macchina per il caffè ha un eccellente rapporto qualità-prezzo” (“eccellente” non ha uno standard uniforme; qualcuno pensa che 500 euro sia alto, altri pensano che ne servano 1000);
  • Previsioni: “Il prezzo del Bitcoin supererà i 100.000 dollari l’anno prossimo” (dipende da variabili di mercato, nessuna conclusione certa);
  • Sentimenti: “Il finale di questo film mi ha fatto piangere” (l’esperienza emotiva varia da persona a persona);
  • Suggerimenti: “Dovresti svegliarti un’ora prima ogni giorno per studiare” (un metodo adatto a una persona potrebbe non esserlo per tutti).

Prendendo come esempio i contenuti medici, il confine tra fatti e opinioni è particolarmente critico:

FattoOpinione
“L’efficacia protettiva del vaccino Pfizer Covid-19 è del 95% dopo due dosi (dati della sperimentazione clinica di fase III della FDA 2020)”“Il vaccino Pfizer è attualmente il miglior vaccino Covid” (“migliore” non ha standard chiari, diverse agenzie potrebbero avere conclusioni differenti)
“L’Organizzazione Mondiale della Sanità raccomanda la vaccinazione antinfluenzale per le persone sopra i 60 anni”“Le persone che non fanno il vaccino antinfluenzale sono irresponsabili” (giudizio morale, nessuna base oggettiva)

Perché Google distingue tra fatti e opinioni

Google distingue fatti e opinioni per mantenere la fiducia degli utenti. I dati Statista 2024 mostrano che la confusione nei contenuti porta a un tasso di rimbalzo degli utenti fino al 62% (rispetto al 28% per i contenuti fattuali); il 41% degli utenti riduce la fiducia a causa di informazioni fuorvianti, minacciando direttamente la credibilità dell’ecosistema di ricerca.

La fiducia degli utenti è la “linfa vitale” di Google

Qual è la competitività principale di Google? È il fatto che gli utenti credano che “i risultati di ricerca possano risolvere i problemi”.

  • Dati di supporto: Il rapporto sulla trasparenza di Google 2023 mostra che il “punteggio di credibilità” degli utenti per i risultati di ricerca (da 1 a 10) è fortemente correlato positivamente alla percentuale di fatti nel contenuto: le pagine con oltre l’80% di fatti hanno un punteggio di credibilità medio di 8,2; le pagine con meno del 30% di fatti hanno un punteggio di soli 4,1.
  • Feedback sul comportamento dell’utente: Quando gli utenti scoprono che un risultato di ricerca è “contraddittorio” (ad esempio uno dice che “il caffè causa il cancro” e l’altro che “il caffè fa bene alla salute”), il 43% degli utenti passerà ad altri motori di ricerca (Edelman Trust Barometer 2024); se situazioni simili si verificano più volte, il 28% degli utenti ridurrà permanentemente la frequenza d’uso.

Un caso reale: nel 2022, un blog sulla genitorialità ha pubblicato “I vaccini causano l’autismo: le storie strappalacrime di 100 famiglie”, citando “osservazioni dei genitori” e “intuizioni” come base (senza statistiche mediche). Anche se l’algoritmo di Google non ha identificato direttamente l'”opinione”, il numero di segnalazioni degli utenti è aumentato vertiginosamente (oltre 5000 in un mese) e la pagina è stata infine contrassegnata come “contenuto di opinione” e declassata. Un’indagine successiva ha mostrato che il 79% degli utenti segnalanti ha dichiarato di aver “perso fiducia in Google a causa dell’inaffidabilità del contenuto”.

L’ecosistema pubblicitario e commerciale dipende da contenuti con “fatti chiari”

Le entrate pubblicitarie di Google (237 miliardi di dollari nel 2023, pari all’81% delle entrate totali della casa madre Alphabet) dipendono fortemente dalla credibilità dei risultati di ricerca.

  • Esigenze degli inserzionisti: Quando le aziende pubblicano annunci di ricerca, il 75% sceglie parole chiave legate a “contenuti di tipo fattuale” (ad esempio, la “raccomandazione dei migliori laptop 2024” deve basarsi su dati di recensione), poiché questo tipo di contenuto ha tassi di conversione più elevati (tasso di conversione medio del 12% nella categoria B2C, molto più alto del 3% dei contenuti basati su opinioni) (eMarketer 2024).
  • Conflitto tra esperienza utente ed efficacia pubblicitaria: Se i risultati di ricerca sono mescolati con una grande quantità di contenuti d’opinione (come “questo telefono è il migliore da usare”), gli utenti se ne andranno rapidamente a causa della confusione informativa e le opportunità di visualizzazione degli annunci e il tasso di clic (CTR) scenderanno del 22% (dati interni Google Ads).

Ad esempio, quando una piattaforma di e-commerce promuove “abbigliamento per la protezione solare estiva”, se la pagina dei dettagli del prodotto scrive “questo abbigliamento per la protezione solare può bloccare il 99% dei raggi UV (numero del rapporto di prova: XXX)” (fatto), il suo ranking di ricerca e il CTR dell’annuncio sono rispettivamente al 3° posto e al 4,8%; se viene cambiato in “questo abbigliamento per la protezione solare è il miglior acquisto di quest’estate” (opinione), il ranking scende al 15° posto e il CTR è solo dell’1,2%.

Rischi legali e di conformità spingono Google a distinguere rigorosamente

In molte parti del mondo sono state stabilite normative rigorose sulla “diffusione di informazioni false” e Google deve ridurre i rischi legali distinguendo tra fatti e opinioni.

  • Digital Services Act (DSA) dell’UE: richiede alle piattaforme di assumersi la responsabilità per “dichiarazioni fattuali che potrebbero trarre in inganno gli utenti”; se la diffusione di informazioni false causa perdite agli utenti (come consigli medici errati), la piattaforma deve risarcire. Nel 2023, Google è stata multata per 22 milioni di euro dalle autorità di regolamentazione francesi per non aver rimosso tempestivamente contenuti d’opinione che affermavano che “un certo integratore può curare il cancro”.
  • Linee guida pubblicitarie della FTC statunitense: vietano esplicitamente “dichiarazioni false o fuorvianti”; se le descrizioni dei prodotti confondono fatti e opinioni (come “questa pillola dimagrante è efficace al 100%” senza dati clinici), potrebbero essere considerate frode. Nel Q1 2024, la FTC ha avviato indagini su 12 piattaforme di e-commerce che si affidano al marketing basato su opinioni.

La strategia di risposta di Google è: contrassegnare i contenuti in “aree ad alto rischio” (medicina, finanza, legge) tramite algoritmi e richiedere obbligatoriamente l’indicazione delle basi fattuali. Ad esempio, se i contenuti medici non citano fonti autorevoli come PubMed o l’OMS, verranno limitati e non appariranno nelle prime 5 pagine dei risultati di ricerca.

Senza distinguere fatti e opinioni, l’algoritmo “giudicherebbe male” le esigenze degli utenti

Gli algoritmi di Google (come BERT, Med-PaLM) si affidano alla “comprensione semantica”, ma le caratteristiche semantiche di opinioni e fatti sono molto diverse; non distinguerle porterebbe a distorsioni nelle raccomandazioni.

  • Differenze nelle caratteristiche linguistiche: I contenuti fattuali usano spesso espressioni oggettive come “i dati mostrano”, “la ricerca indica”, “secondo il rapporto…”; i contenuti d’opinione usano segnali soggettivi come “penso”, “ovviamente”, “tutti sentono” (il modello NLP di Google può identificare il 92% delle espressioni soggettive).
  • Disallineamento dell’intento dell’utente: Se cerchi “come curare il raffreddore” (hai bisogno di fatti), se l’algoritmo raccomanda “non c’è bisogno di medicine per il raffreddore, basta bere acqua calda” (opinione), l’utente si perderà a causa dell’inefficacia delle informazioni. I test A/B di Google del 2023 mostrano che dopo aver distinto fatti e opinioni, la soddisfazione degli utenti per le ricerche mediche è aumentata del 29%.

Un caso tipico è stato durante la diffusione della variante Delta nel 2021, quando un sito di salute ha pubblicato “La vitamina C può prevenire al 100% l’infezione da Delta” (opinione), che è stato erroneamente giudicato dall’algoritmo come “contenuto ad alta rilevanza” e raccomandato. Un gran numero di utenti ha cliccato e segnalato come “inefficace”, portando Google a modificare urgentemente l’algoritmo, aggiungendo la regola secondo cui “le opinioni mediche devono essere contrassegnate come ‘non verificate'”.

Come Google “riconosce” fatti e opinioni nei contenuti

L’algoritmo di Google deve elaborare ogni giorno oltre 20 miliardi di contenuti misti “fatto-opinione”, di cui solo il 38% può essere chiaramente classificato come “puro fatto”; tra i reclami per deviazioni nei risultati di ricerca causate da “errori di riconoscimento dei fatti”, medicina (41%), istruzione (29%) e notizie (22%) sono le aree più colpite (rapporto sulla qualità interna di Google).

Usare un “database strutturato” per “etichettare” i fatti

Knowledge Graph: si tratta di un database strutturato che contiene oltre 120 milioni di entità (come “Monte Everest”, “Tesla”) e 500 miliardi di fatti (come “altezza del Monte Everest 8848,86 metri”, “sede di Tesla in Texas”). Quando l’algoritmo scansiona un articolo, estrae prioritariamente i “candidati fatti” (come numeri, date, luoghi, nomi propri) e li confronta con i record autorevoli nel Knowledge Graph:

  • Corrispondenza esatta: Se il “processo del chip iPhone 16” nel contenuto è “3nm” (coerente con i dati del lancio ufficiale di Apple), viene contrassegnato direttamente come “fatto ad alta credibilità”;
  • Corrispondenza parziale: Se si scrive “la durata della batteria dell’iPhone 16 è aumentata del 20% rispetto alla generazione precedente” (non ci sono valori specifici nel Knowledge Graph, ma c’è un record di “18 ore di durata della batteria della generazione precedente”), l’algoritmo lo contrassegnerà come “fatto da verificare”;
  • Nessuna corrispondenza: Se si scrive “l’iPhone 16 è il telefono più venduto” (senza dati di vendita a supporto), viene contrassegnato come “candidato opinione”.

Esempio: Nel 2023, un blog tecnologico ha pubblicato “La capacità della batteria dell’iPhone 15 supera i 5000 mAh”; l’algoritmo, tramite il confronto con il Knowledge Graph, ha scoperto che il dato ufficiale dell’iPhone 15 è di 4383 mAh (sito Apple), ma non ha trovato fonti autorevoli per “5000 mAh”. Alla fine, l’articolo è stato contrassegnato come “contenente fatti non verificati” e il suo ranking di ricerca è sceso del 30%.

Usare il “riconoscimento dei modelli linguistici” per distinguere tra “tono dei fatti” e “tono delle opinioni”

I modelli di elaborazione del linguaggio naturale (NLP) di Google analizzano le “caratteristiche grammaticali” e le “preferenze terminologiche” delle frasi per giudicare rapidamente se il contenuto è più vicino a un fatto o a un’opinione. I comuni “segnali di fatto” includono:

  • Espressioni oggettive: “Secondo il rapporto 2024 dell’Organizzazione Mondiale della Sanità (OMS), i decessi per malaria nel mondo sono scesi a 608.000”;
  • Supporto dei dati: “Verificato da 1000 esperimenti, la durata del ciclo della nuova batteria raggiunge le 2000 volte”;
  • Fonti chiare: “I dati dell’US Geological Survey (USGS) mostrano che l’ultima eruzione del vulcano del Parco di Yellowstone è avvenuta 640.000 anni fa”.

I comuni “segnali di opinione” includono:

  • Valutazione soggettiva: “Il design di questo telefono è molto bello” (“bello” non ha uno standard uniforme);
  • Espressioni predittive: “I prezzi delle case scenderanno sicuramente l’anno prossimo” (“sicuramente” non è verificabile);
  • Termini assolutistici: “Tutti i pazienti Covid devono essere vaccinati” (“tutti” ignora le differenze individuali).

Quanto è accurato il modello NLP di Google? I test interni del 2024 mostrano che l’accuratezza del riconoscimento per i contenuti di “puro fatto” raggiunge il 91%, per le “pure opinioni” è dell’85%, ma per i contenuti con “mix di fatti e opinioni” (come “la qualità dell’immagine di questa fotocamera è eccellente (opinione), punteggio DxOMark di 95 punti (fatto)”), l’accuratezza è solo del 67%—questo è anche un punto difficile che l’algoritmo deve ulteriormente ottimizzare.

Usare la “verifica incrociata multi-fonte” per escludere “bias da singola fonte”

Per evitare di essere ingannati da una singola fonte (come un self-media che inventa dati), Google richiede che i “fatti ad alta credibilità” debbano essere verificati da almeno due fonti autorevoli indipendenti. Ad esempio, quando l’algoritmo rileva un articolo medico che afferma che “un certo farmaco ha un’efficacia del 90% per il diabete”, esegue i seguenti passaggi:

  1. Controlla se ci sono documenti di approvazione della FDA (USA) o dell’EMA (Europa);
  2. Cerca se ci sono articoli di studi clinici correlati in riviste mediche come PubMed o The Lancet;
  3. Confronta le descrizioni su siti medici autorevoli (come Mayo Clinic);
  4. Se più di 3 fonti indipendenti menzionano lo stesso dato, viene contrassegnato come “fatto ad alta credibilità”; se solo una fonte lo menziona senza altre prove, viene contrassegnato come “fatto a bassa credibilità”.

Tabella: Standard di verifica dei fatti in diversi settori (Specifiche interne Google 2024)

SettoreNumero minimo di fonti autorevoli richiesteEsempi tipici di fonti autorevoli
Salute e Medicina≥3FDA, PubMed, The New England Journal of Medicine
Legge e Politica≥2Siti governativi ufficiali (.gov), sentenze della Corte Suprema
Prodotti Tecnologici≥2Conferenze stampa dei produttori, agenzie di recensione autorevoli (come GSMArena)
Notizie Sociali≥2Reuters, AP, The New York Times

Quanto è importante per la SEO che Google riconosca i “fatti”

Nel Q2 2024, un’analisi di Ahrefs su 100.000 parole chiave target ad alto volume di ricerca (volume mensile > 10.000) ha mostrato che: il ranking medio dei contenuti fattuali (pagine 1-3) è superiore di 2,3 posizioni rispetto ai contenuti d’opinione. Gli esperimenti interni di Google indicano che il tasso di clic (CTR) per i contenuti fattuali è superiore del 37% rispetto a quelli d’opinione (a parità di posizione in classifica); il tempo di permanenza dell’utente è più lungo (media di 2 min 45 sec vs 58 sec delle opinioni) e la probabilità di un secondo clic (visitare altre pagine dopo il clic) è superiore del 52%.

I contenuti che possono essere accuratamente identificati da Google come “fatti” hanno un vantaggio nel ranking.

I contenuti fattuali sono il “punteggio base”, le opinioni sono i “punti bonus”

Nell’algoritmo di ranking di Google (come Page Experience Update, Helpful Content Update), l’accuratezza fattuale è la “soglia di base”: se il contenuto viene giudicato come “che confonde fatti e opinioni” o “errori fattuali”, anche se altri indicatori (come backlink, velocità di caricamento) sono eccellenti, il ranking verrà soppresso.

  • Supporto dei dati: Un’indagine di Moz del 2024 su 5000 siti web medici ha mostrato:
    • Il ranking medio dei contenuti fattuali (con fonti autorevoli e dati specifici) è a pagina 2,1;
    • Il ranking medio dei contenuti d’opinione (senza dati di supporto, valutazioni soggettive) è a pagina 6,3;
    • I contenuti contrassegnati dall’algoritmo per “errori fattuali” hanno subito un calo medio del ranking di 7,2 pagine.

Esempio: Un sito di salute ha pubblicato “10 ‘cibi antitumorali’ per eliminare completamente le cellule cancerose”, usando espressioni vaghe come “la ricerca dimostra”, “gli esperti raccomandano” (senza indicare istituti di ricerca specifici). Google, tramite il confronto con il Knowledge Graph, ha scoperto che il “tasso di eliminazione delle cellule cancerose del 90%” menzionato nell’articolo non aveva supporto di dati autorevoli. Di conseguenza, la pagina è passata dalle prime 10 pagine per parole chiave relative alla “dieta per diabetici” alla pagina 28, con un calo del traffico organico del 63%.

I contenuti fattuali possono “potenziare” l’effetto SEO

L’algoritmo di Google giudica la qualità del contenuto attraverso il comportamento dell’utente (clic, permanenza, scorrimento), e i contenuti fattuali tendono naturalmente a innescare comportamenti positivi, creando un ciclo virtuoso di “miglioramento del ranking → aumento del traffico → comportamento più positivo → ulteriore miglioramento del ranking”.

  • Prestazioni specifiche:
    • Tasso di clic (CTR): A parità di posizione in classifica, il CTR dei contenuti fattuali è superiore del 37% rispetto a quello delle opinioni (dati interni Google Ads);
    • Tempo di permanenza: Il tempo medio di permanenza per i contenuti fattuali è di 2 min 45 sec, contro i soli 58 secondi delle opinioni (SimilarWeb 2024);
    • Tasso di rimbalzo: Il tasso di rimbalzo per i contenuti fattuali (percentuale di utenti che lasciano il sito dopo aver visitato solo la pagina corrente) è del 32%, mentre per le opinioni arriva al 68% (HubSpot 2024).

Tabella: Confronto del comportamento degli utenti per diversi tipi di contenuto (Media del settore 2024)

IndicatoreContenuto FattualeContenuto d’OpinioneDifferenza
Ranking medioPagina 2,1Pagina 6,3+4,2 pagine
CTR (stesso ranking)8,7%5,3%+3,4%
Tempo di permanenza2 min 45 sec58 sec+167 sec
Tasso di rimbalzo32%68%+36%

Settori ad alta fiducia (Medicina/Legge/Finanza)

In “settori ad alto rischio” come medicina, legge e finanza, il riconoscimento dei fatti da parte di Google è più rigoroso: qualsiasi errore fattuale o confusione di opinioni può portare al declassamento o addirittura al blocco del contenuto.

  • Settore Medico: La “Politica sui contenuti medici” aggiornata di Google nel 2023 richiede chiaramente:
    • I contenuti su trattamenti di malattie, efficacia dei farmaci, ecc., devono citare fonti autorevoli come PubMed, FDA, OMS;
    • Se il contenuto include dati come “tasso di guarigione” o “tasso di efficacia”, è necessario indicare la dimensione del campione, le condizioni sperimentali e la data di pubblicazione della ricerca;
    • I contenuti che violano le regole verranno contrassegnati come “non sicuri” e il ranking di ricerca scenderà di almeno 10 pagine.
  • Settore Legale: La “Guida ai contenuti legali” di Google, in collaborazione con l’American Bar Association (ABA), stabilisce:
    • L’interpretazione delle clausole legali deve citare documenti ufficiali (come regolamenti federali, sentenze della Corte Suprema);
    • I dati come “tasso di vittoria” o “tasso di successo” devono fornire fonti di casi specifici (come statistiche di 100 casi pubblici dello studio legale);
    • I contenuti che confondono “disposizioni legali” con “consigli dell’avvocato” saranno limitati e non appariranno nelle prime 5 pagine dei risultati per ricerche relative alla “consulenza legale”.

Esempio: Un sito di consulenza legale ha pubblicato “Cose da sapere sulla divisione dei beni in caso di divorzio nel 2024: queste 3 situazioni non ti daranno soldi”, affermando che “secondo l’ultima legge sul matrimonio, le proprietà post-matrimoniali sono divise equamente in tutti i casi” (in contraddizione con il principio del Codice Civile di “aver cura dei diritti dei figli, della moglie e della parte senza colpa”). Dopo che Google ha identificato l’errore confrontandolo con i database legali, la pagina è stata contrassegnata come “errore fattuale”, il ranking è sceso dalla pagina 3 alla 32 e le richieste telefoniche dello studio legale sono diminuite del 41%.

Strategia SEO a lungo termine

A differenza dei contenuti d’opinione (che dipendono da trend a breve termine ed emozioni degli utenti), i contenuti fattuali possono diventare un “punto di ingresso del traffico a lungo termine” per un sito web grazie alla loro “verificabilità” e “stabilità”.
  • Confronto dei dati: Il monitoraggio di 1000 siti web da parte di Ahrefs (operativi da > 3 anni) mostra:
    • Il tasso medio annuo di crescita del traffico organico per i contenuti fattuali (come “aliquote fiscali sulla benzina per stato nel 2024” o “analisi delle nuove funzionalità di Python 3.12”) è del 18%;
    • Il tasso di crescita annuo per i contenuti d’opinione (come “migliori tipi di investimento per il 2024” o “questi 10 film sono da vedere”) è del 5%;
    • Dopo 3 anni, la percentuale di contenuti fattuali ancora nelle prime 20 pagine dei risultati è del 67%, contro solo il 29% per le opinioni.

Motivo: La richiesta di contenuti fattuali è “continua” (ad esempio, gli utenti cercheranno ogni anno “le ultime politiche fiscali”), mentre la richiesta di opinioni è “effimera” (ad esempio, “il miglior film dell’anno” è popolare solo durante la stagione dei premi). L’algoritmo di Google tende anche a raccomandare contenuti “utili a lungo termine”, rendendo i rendimenti SEO dei contenuti fattuali più stabili.

I contenuti fattuali ottengono più facilmente “backlink di alta qualità”

I backlink sono uno degli indicatori principali della SEO e Google, nel valutare la qualità di un link, darà priorità alla “credibilità fattuale” del contenuto puntato.

  • Ricerca di settore: L’analisi dei link di Majestic 2024 mostra:
    • Tra i link che puntano a contenuti fattuali, il 42% proviene da siti autorevoli (come .gov, .edu, riviste di settore di alto livello);
    • Tra i link che puntano a contenuti d’opinione, solo il 18% proviene da siti autorevoli, mentre il resto proviene per lo più da social media o blog personali;
    • L’effetto dei backlink di alta qualità (da domini autorevoli) sul ranking è 5,3 volte superiore a quello dei link ordinari.

Esempio: Un media tecnologico ha pubblicato “Il chip A17 Pro di iPhone 15 Pro Max: processo a 5nm o 4nm?”, citando documenti ufficiali di TSMC e parametri storici dei chip serie A di Apple (tutti con fonti indicate). L’articolo è stato ripreso da AnandTech (un blog autorevole nel campo tecnologico) con un link. In 3 mesi, il numero di backlink della pagina è passato da 12 a 287, e il ranking di ricerca è balzato dalla pagina 15 alla pagina 2.

Infine, vorrei dire che, essenzialmente, il “riconoscimento dei fatti” di Google consiste nel costruire un sistema di valutazione della credibilità delle informazioni con l’aiuto di EEAT.

滚动至顶部