Google nutzt den Knowledge Graph (über 120 Millionen Entitäten), NLP-Modelle (91 % Genauigkeit bei der Faktenerkennung) und Querverweise (≥2 autorisierte Quellen), um Fakten von Meinungen zu unterscheiden und die Glaubwürdigkeit von Inhalten sicherzustellen.
Jeden Tag finden über 5 Milliarden Suchanfragen auf Google statt, wobei die Suchintention von 38 % der Nutzer darin besteht, klare Fakten zu erhalten (z. B. „Austragungsort der Weltmeisterschaft 2024“, „Normalbereich für Bluthochdruck“). Google gab in den Algorithmus-Logs für Q2 2023 bekannt, dass die Anzahl der Fälle, in denen Suchergebnisse aufgrund von Faktenfehlern herabgestuft wurden, im Vergleich zum Vorjahr um 41 % gestiegen ist, wobei medizinische, rechtliche und finanzielle Inhalte über 60 % ausmachten. Wenn ein Nutzer nach „Nebenwirkungen von Covid-Impfstoffen“ sucht und die Ergebnisse „Nebenwirkungswahrscheinlichkeit von bis zu 80 %“ (übertriebener Fakt) sowie „Laut WHO-Daten liegt die Häufigkeit häufiger Nebenwirkungen bei ca. 5-10 %“ (verifizierbarer Fakt) enthalten, beträgt die Absprungrate nach dem Klick auf das erstere 78 %, während sie beim letzteren nur 12 % beträgt. 
Table of Contens
ToggleWas sind Fakten und Meinungen?
Der Bedarf eines Nutzers bei einer Suchanfrage ist meist eindeutig: Ich benötige eine definitive Antwort.
Doch in der Realität verwischen viele Inhalte diese Grenze. Beispielsweise schreibt ein Technologie-Blog: „Das neu veröffentlichte KI-Modell diagnostiziert genauer als menschliche Ärzte“ (eine Meinung ohne konkrete Testdaten), wird aber auf der Suchergebnisseite für „Neueste Fortschritte in der medizinischen KI“ platziert; eine Reise-Website behauptet: „Santorini in Griechenland ist die romantischste Insel der Welt“ (subjektive Bewertung), kennzeichnet dies jedoch nicht als „basierend auf Besucherumfragen“.
Fakten
Der Kern eines Fakts ist die Verifizierbarkeit – er muss einen klaren „Anker“ haben, der über unabhängige Kanäle überprüft werden kann. Zum Beispiel:
- „Die weltweiten Smartphone-Auslieferungen im Jahr 2023 beliefen sich auf ca. 1,17 Milliarden Einheiten (IDC-Daten)“
- „Der Eiffelturm in Paris ist 330 Meter hoch (offizielle Messung des französischen Kulturministeriums)“
- „Harry Potter und der Stein der Weisen kam am 16. November 2001 in den USA in die Kinos (IMDb-Filmdatenbank)“.
Die Hauptmerkmale dieser Aussagen sind:
- Sie enthalten konkrete Zahlen, Zeiten, Orte oder Quellen (wie „IDC-Daten“, „Französisches Kulturministerium“, „IMDb“);
- Sie hängen nicht von persönlichem Empfinden ab; verschiedene Personen kommen bei der Überprüfung zum gleichen Ergebnis (unabhängig davon, wer nachsieht, die Höhe des Eiffelturms beträgt 330 Meter);
- Sie können „falsifiziert“ werden (wenn jemand sagt, dass 2023 1,5 Milliarden Handys ausgeliefert wurden, muss man lediglich die öffentlichen Berichte von IDC, Counterpoint usw. vergleichen, um den Wahrheitsgehalt zu beurteilen).
Ein weiteres Beispiel, das leicht zu Verwechslungen führt: Ein Bildungsartikel schreibt: „Die Mathematikleistungen finnischer Schüler sind weltweit führend.“ Gilt dieser Satz als Fakt?
- Wenn ergänzt wird: „Laut dem OECD PISA-Testbericht 2022 liegt die durchschnittliche Mathematikpunktzahl der 15-jährigen Schüler in Finnland bei 520 Punkten und damit über dem OECD-Durchschnitt (489 Punkte)“, wird es zu einem Fakt;
- Bleibt nur der ursprüngliche Satz (ohne konkreten Bericht und Zeitangabe), ist es eher eine Meinung – da „führend“ ohne klare Vergleichsstandards und Datenunterstützung bleibt.
Meinungen
Der Kern einer Meinung ist die Nicht-Verifizierbarkeit – sie spiegelt das Urteil, die Vorliebe oder die Vermutung einer Person oder Gruppe wider und kann nicht mit einem einzigen Maßstab für „richtig oder falsch“ gemessen werden. Häufige Ausdrucksformen von Meinungen sind:
- Bewertend: „Diese Kaffeemaschine hat ein extrem hohes Preis-Leistungs-Verhältnis“ („extrem hoch“ ist kein einheitlicher Standard; manche finden 500 Euro hoch, andere erst 1000 Euro);
- Prognostizierend: „Der Bitcoin-Preis wird im nächsten Jahr 100.000 US-Dollar überschreiten“ (abhängig von Marktvariablen, kein zwangsläufiges Ergebnis);
- Empfindungsbasiert: „Das Ende dieses Films hat mich zum Weinen gebracht“ (emotionale Erlebnisse sind individuell verschieden);
- Empfehlend: „Du solltest jeden Tag eine Stunde früher aufstehen, um zu lernen“ (eine Methode, die für jemanden geeignet ist, muss nicht für jeden geeignet sein).
Am Beispiel medizinischer Inhalte ist die Grenze zwischen Fakten und Meinungen besonders kritisch:
| Fakten | Meinungen |
|---|---|
| „Die Schutzwirkung des Pfizer-Covid-Impfstoffs betrug nach zwei Dosen 95 % (FDA 2020 Phase-III-Studiendaten)“ | „Der Pfizer-Impfstoff ist derzeit der beste Covid-Impfstoff“ („der beste“ hat keinen klaren Standard; verschiedene Institutionen können zu unterschiedlichen Ergebnissen kommen) |
| „Die Weltgesundheitsorganisation empfiehlt die Grippeimpfung für Personen über 60 Jahre“ | „Menschen, die sich nicht gegen Grippe impfen lassen, sind sehr unverantwortlich“ (moralisches Urteil, keine objektive Grundlage) |
Warum Google zwischen Fakten und Meinungen unterscheidet
Google unterscheidet zwischen Fakten und Meinungen, um das Vertrauen der Nutzer zu wahren. Statista-Daten von 2024 zeigen, dass verwirrende Inhalte zu einer Absprungrate von bis zu 62 % führen (bei faktenbasierten Inhalten nur 28 %), und 41 % der Nutzer verlieren aufgrund von Irreführung das Vertrauen, was die Glaubwürdigkeit des Such-Ökosystems direkt bedroht.
Nutzervertrauen ist Googles „Lebensader“
Was ist Googles Kernwettbewerbsfähigkeit? Es ist der Glaube der Nutzer, dass „Suchergebnisse Probleme lösen können“.
- Datenbeleg: Der Google-Transparenzbericht 2023 zeigt, dass die „Glaubwürdigkeitsbewertung“ der Nutzer für Suchergebnisse (Skala 1-10) stark positiv mit dem Anteil an Fakten im Inhalt korreliert – Seiten mit einem Faktenanteil von über 80 % erhielten eine durchschnittliche Bewertung von 8,2; Seiten mit weniger als 30 % Faktenanteil nur 4,1.
- Nutzerverhaltens-Feedback: Wenn Nutzer feststellen, dass ein Suchergebnis „widersprüchliche Aussagen“ enthält (z. B. eine sagt „Kaffee verursacht Krebs“, die andere „Kaffee ist gesundheitsfördernd“), wechseln 43 % der Nutzer zu anderen Suchmaschinen (Edelman Trust Barometer 2024); bei wiederholten Vorfällen reduzieren 28 % der Nutzer die Nutzung dauerhaft.
Ein reales Beispiel: 2022 veröffentlichte ein Eltern-Blog den Artikel „Impfstoffe verursachen Autismus: Die Leidensgeschichte von 100 Familien“, wobei „Elternbeobachtungen“ und „Intuition“ als Grundlage herangezogen wurden (ohne medizinische Statistik). Auch wenn der Google-Algorithmus die „Meinung“ nicht sofort direkt erkannte, stiegen die Nutzerbeschwerden sprunghaft an (über 5.000 Mal pro Monat), was schließlich dazu führte, dass die Seite als „Meinungsinhalt“ markiert und herabgestuft wurde. Eine anschließende Umfrage ergab, dass 79 % der meldenden Nutzer angaben, „aufgrund unglaubwürdiger Inhalte das Vertrauen in Google verloren zu haben“.
Werbung und das Geschäftsökosystem hängen von „faktisch klaren“ Inhalten ab
Googles Werbeeinnahmen (237 Milliarden US-Dollar im Jahr 2023, was 81 % des Gesamtumsatzes der Muttergesellschaft Alphabet ausmacht) hängen stark von der Glaubwürdigkeit der Suchergebnisse ab.
- Anforderungen der Werbetreibenden: Wenn Unternehmen Suchanzeigen schalten, wählen 75 % Keywords aus, die mit „faktischen Inhalten“ verknüpft sind (z. B. „Beste Laptop-Empfehlungen 2024“ müssen auf Testdaten basieren), da diese Inhalte eine höhere Konversionsrate aufweisen (durchschnittlich 12 % im B2C-Bereich, weit über den 3 % von Meinungsinhalten) (eMarketer 2024).
- Konflikt zwischen Nutzererfahrung und Werbeeffekt: Wenn Suchergebnisse mit vielen Meinungsinhalten vermischt sind (z. B. „Dieses Handy ist am besten zu bedienen“), verlassen Nutzer die Seite aufgrund der Informationsverwirrung schnell, wodurch die Werbeeinblendungschancen und die Klickrate (CTR) um 22 % sinken (interne Google Ads-Daten).
Wenn beispielsweise eine E-Commerce-Plattform „Sommer-Sonnenschutzkleidung“ bewirbt und auf der Produktdetailseite schreibt: „Diese Sonnenschutzkleidung blockiert 99 % der UV-Strahlen (Prüfberichtsnr.: XXX)“ (Fakt), liegen das Suchranking und die Anzeigen-CTR auf Platz 3 bzw. bei 4,8 %. Würde dies in „Diese Sonnenschutzkleidung ist die kaufenswerteste dieses Sommers“ geändert (Meinung), fiele das Ranking auf Platz 15 und die CTR auf nur 1,2 %.
Rechtliche und Compliance-Risiken zwingen Google zur strikten Unterscheidung
In vielen Teilen der Welt wurden strenge Gesetze gegen die „Verbreitung von Falschinformationen“ erlassen. Google muss rechtliche Risiken durch die Unterscheidung von Fakten und Meinungen minimieren.
- Digital Services Act (DSA) der EU: Verlangt von Plattformen die Verantwortung für „faktische Aussagen, die Nutzer irreführen könnten“. Wenn durch die Verbreitung falscher Informationen Nutzerschäden entstehen (z. B. falsche medizinische Ratschläge), muss die Plattform Entschädigung leisten. Im Jahr 2023 wurde Google von den französischen Aufsichtsbehörden mit einer Geldstrafe von 22 Millionen Euro belegt, weil Meinungsinhalte wie „Ein bestimmtes Gesundheitsprodukt kann Krebs heilen“ nicht rechtzeitig gelöscht wurden.
- FTC-Werberichtlinien der USA: Verbieten ausdrücklich „falsche oder irreführende Aussagen“. Wenn eine Produktbeschreibung Fakten und Meinungen vermischt (z. B. „Dieses Abnehmpräparat ist zu 100 % wirksam“ ohne klinische Daten), kann dies als Betrug gewertet werden. Im ersten Quartal 2024 hat die FTC bereits Untersuchungen gegen 12 E-Commerce-Plattformen eingeleitet, die auf Meinungsmarketing setzen.
Googles Strategie lautet: Inhalte in „Hochrisikobereichen“ (Medizin, Finanzen, Recht) durch Algorithmen zu markieren und die Angabe von Faktenquellen zu erzwingen. Medizinische Inhalte werden beispielsweise darauf beschränkt, unter den ersten 5 Seiten der Suchergebnisse zu erscheinen, wenn sie keine Quellen wie PubMed oder die WHO zitieren.
Ohne Unterscheidung von Fakten und Meinungen würde der Algorithmus Nutzerbedürfnisse „falsch einschätzen“
Googles Algorithmen (wie BERT, Med-PaLM) stützen sich auf „semantisches Verständnis“, aber die semantischen Merkmale von Meinungen und Fakten unterscheiden sich stark. Eine fehlende Unterscheidung führt zu Empfehlungsverzerrungen.
- Unterschiede in den Sprachmerkmalen: Faktische Inhalte verwenden häufig objektive Ausdrücke wie „Daten zeigen“, „Studien weisen darauf hin“, „Laut Bericht…“. Meinungsinhalte nutzen hingegen subjektive Signale wie „Ich denke“, „Offensichtlich“, „Jeder fühlt“ (Googles NLP-Modelle können 92 % der subjektiven Aussagen erkennen).
- Fehlgeleitete Nutzerintention: Wenn jemand nach „Behandlung einer Erkältung“ sucht (Fakten benötigt) und der Algorithmus „Bei Erkältung keine Medikamente nehmen, einfach heißes Wasser trinken“ empfiehlt (Meinung), wandert der Nutzer aufgrund unwirksamer Informationen ab. Google A/B-Tests aus dem Jahr 2023 zeigten, dass die Nutzerzufriedenheit bei medizinischen Suchen nach der Unterscheidung von Fakten und Meinungen um 29 % stieg.
Ein typischer Fall trat während der Delta-Variante 2021 auf, als eine Gesundheitswebsite veröffentlichte: „Vitamin C kann Delta-Infektionen zu 100 % verhindern“ (Meinung). Dies wurde vom Algorithmus fälschlicherweise als „Inhalt mit hoher Relevanz“ eingestuft und empfohlen. Massive Nutzerbeschwerden über „Unwirksamkeit“ führten dazu, dass Google den Algorithmus eilig anpasste und die Regel einführte, dass medizinische Meinungen als „nicht verifiziert“ gekennzeichnet werden müssen.
Woran Google Fakten und Meinungen in Inhalten „erkennt“
Googles Algorithmen müssen täglich über 20 Milliarden gemischte „Fakten-Meinungs“-Inhalte verarbeiten, wovon nur 38 % eindeutig als „reine Fakten“ klassifiziert werden können. Bei Beschwerden über Abweichungen in den Suchergebnissen aufgrund von „Faktenidentifikationsfehlern“ sind Medizin (41 %), Bildung (29 %) und Nachrichten (22 %) die am stärksten betroffenen Bereiche (interner Google-Qualitätsbericht).
Nutzung einer „strukturierten Datenbank“, um Fakten zu „labeln“
Knowledge Graph – dies ist eine strukturierte Datenbank mit über 120 Millionen Entitäten (z. B. „Mount Everest“, „Tesla“) und 500 Milliarden Fakten (z. B. „Höhe des Mount Everest 8.848,86 Meter“, „Tesla-Hauptsitz in Texas“). Wenn der Algorithmus einen Artikel scannt, extrahiert er bevorzugt die darin enthaltenen „Faktenkandidaten“ (wie Zahlen, Zeiten, Orte, Eigennamen) und gleicht sie mit den autorisierten Datensätzen im Knowledge Graph ab:
- Vollständige Übereinstimmung: Wenn das „Chip-Verfahren des iPhone 16“ im Inhalt „3nm“ lautet (was mit den offiziellen Apple-Präsentationsdaten übereinstimmt), wird es direkt als „hochgradig glaubwürdiger Fakt“ markiert;
- Teilweise Übereinstimmung: Wenn geschrieben steht „Die Akkulaufzeit des iPhone 16 ist um 20 % höher als beim Vorgänger“ (der Knowledge Graph enthält keinen konkreten Wert, aber den Datensatz „Akkulaufzeit des Vorgängers 18 Stunden“), markiert der Algorithmus dies als „zu verifizierenden Fakt“;
- Keine Übereinstimmung: Wenn geschrieben steht „Das iPhone 16 ist das meistverkaufte Handy“ (ohne Unterstützung durch Verkaufsdaten), wird es als „Meinungskandidat“ markiert.
Beispiel: Im Jahr 2023 veröffentlichte ein Technologie-Blog „iPhone 15 Akkukapazität übersteigt 5.000 mAh“. Der Algorithmus stellte durch den Knowledge-Graph-Vergleich fest, dass die offiziellen iPhone 15-Daten bei 4.383 mAh (Apple-Website) liegen und keine autorisierte Quelle für „5.000 mAh“ gefunden wurde. Letztendlich wurde der Artikel als „enthält nicht verifizierte Fakten“ markiert und das Suchranking fiel um 30 %.
Nutzung von „Sprachmustererkennung“, um zwischen „Faktentonfall“ und „Meinungstonfall“ zu unterscheiden
Googles NLP-Modelle analysieren die „grammatikalischen Merkmale“ und „Wortwahl-Vorlieben“ von Sätzen, um schnell zu beurteilen, ob der Inhalt eher einem Fakt oder einer Meinung entspricht. Häufige „Faktensignale“ sind:
- Objektive Darstellung: „Laut Bericht der Weltgesundheitsorganisation (WHO) 2024 sank die Zahl der weltweiten Malaria-Todesfälle auf 608.000“;
- Datenunterstützung: „Durch 1.000 Experimente wurde verifiziert, dass die Zykluslebensdauer der neuen Batterie 2.000 Zyklen erreicht“;
- Klare Quellen: „Daten des US Geological Survey (USGS) zeigen, dass der letzte Ausbruch des Vulkans im Yellowstone-Park vor 640.000 Jahren stattfand“.
Häufige „Meinungssignale“ sind:
- Subjektive Bewertung: „Das Design dieses Telefons ist sehr schön“ („schön“ ist kein einheitlicher Standard);
- Prognostische Aussagen: „Die Immobilienpreise werden nächstes Jahr sicher fallen“ („sicher“ ist nicht verifizierbar);
- Verallgemeinernde Begriffe: „Alle Covid-Patienten müssen geimpft werden“ („alle“ ignoriert individuelle Unterschiede).
Wie genau sind Googles NLP-Modelle? Interne Tests von 2024 zeigen eine Genauigkeit von 91 % bei der Erkennung von „reinen Fakten“ und 85 % bei „reinen Meinungen“. Bei gemischten Inhalten (z. B. „Diese Kamera hat eine exzellente Bildqualität (Meinung), DxOMark-Score von 95 Punkten (Fakt)“) liegt die Genauigkeit jedoch nur bei 67 % – dies ist ein Punkt, an dem der Algorithmus weiter optimiert werden muss.
Nutzung von „Cross-Source-Verifizierung“, um „Single-Source-Bias“ auszuschließen
Um eine Irreführung durch eine einzelne Quelle zu vermeiden (z. B. erfundene Daten eines Mediums), verlangt Google, dass „hochgradig glaubwürdige Fakten“ durch mindestens zwei unabhängige autorisierte Quellen verifiziert werden müssen. Wenn der Algorithmus beispielsweise in einem medizinischen Artikel die Behauptung „Ein bestimmtes Medikament hat eine Wirksamkeit von 90 % bei Diabetes“ erkennt, werden folgende Schritte ausgeführt:
- Prüfen, ob Zulassungsdokumente der FDA (USA) oder EMA (Europa) vorliegen;
- Suche in medizinischen Fachzeitschriften wie PubMed oder The Lancet nach entsprechenden klinischen Studien;
- Vergleich mit Beschreibungen auf autorisierten medizinischen Websites (z. B. Mayo Clinic);
- Wenn mehr als drei unabhängige Quellen dieselben Daten nennen, wird dies als „hochgradig glaubwürdiger Fakt“ markiert; wenn nur eine Quelle dies erwähnt und keine weiteren Belege vorliegen, wird es als „wenig glaubwürdiger Fakt“ markiert.
Tabelle: Faktencheck-Standards in verschiedenen Bereichen (Interne Google-Vorgaben 2024)
| Bereich | Mindestanzahl autorisierter Quellen | Typische Beispiele für autorisierte Quellen |
|---|---|---|
| Medizin & Gesundheit | ≥3 | FDA, PubMed, New England Journal of Medicine |
| Recht & Politik | ≥2 | Regierungswebsites (.gov), Präzedenzfälle des Obersten Gerichtshofs |
| Technikprodukte | ≥2 | Pressekonferenzen der Hersteller, autorisierte Testportale (z. B. GSMArena) |
| Gesellschaftliche News | ≥2 | Reuters, AP, New York Times |
Wie wichtig ist es für SEO, dass Google „Fakten“ erkennt?
In Q2 2024 zeigte eine Ahrefs-Analyse von 100.000 Ziel-Keywords mit hohem Suchvolumen (monatlich >10.000): Faktische Inhalte ranken im Durchschnitt um 2,3 Plätze höher (Seiten 1-3) als Meinungsinhalte. Interne Google-Experimente zeigen, dass die Klickrate (CTR) von faktischen Inhalten um 37 % höher ist als die von Meinungsinhalten (bei gleicher Rankingposition); Nutzer verweilen länger auf der Seite (durchschnittlich 2 Min. 45 Sek. vs. 58 Sek. bei Meinungen), und die Wahrscheinlichkeit eines zweiten Klicks (Besuch einer weiteren Seite) ist um 52 % höher.
Inhalte, die von Google präzise als „Fakten“ erkannt werden, haben einen klaren Vorteil beim Ranking.
Faktische Inhalte sind die „Basispunkte“, Meinungsinhalte das „Extra“
In den Suchranking-Algorithmen von Google (wie Page Experience Update, Helpful Content Update) ist die faktische Genauigkeit die „Basishürde“. Wenn ein Inhalt als „vermischt Fakten und Meinungen“ oder „Faktenfehler“ eingestuft wird, wird das Ranking unterdrückt, selbst wenn andere Metriken (wie Backlinks, Ladegeschwindigkeit) exzellent sind.
- Datenbeleg: Eine Moz-Umfrage unter 5.000 medizinischen Websites im Jahr 2024 ergab:
- Faktische Inhalte (mit autorisierten Quellen und konkreten Daten) ranken im Durchschnitt auf Seite 2,1;
- Meinungsinhalte (ohne Datenunterstützung, subjektive Bewertung) ranken im Durchschnitt auf Seite 6,3;
- Inhalte, die vom Algorithmus wegen „Faktenfehlern“ markiert wurden, fielen im Ranking durchschnittlich um 7,2 Seiten ab.
Beispiel: Eine Gesundheitswebsite veröffentlichte „10 Anti-Krebs-Lebensmittel, die Krebszellen vollständig vernichten“ unter Verwendung vager Ausdrücke wie „Studien belegen“ oder „Experten empfehlen“ (ohne konkrete Forschungseinrichtungen zu nennen). Google stellte durch den Knowledge-Graph-Abgleich fest, dass die im Text genannte „Krebszellen-Vernichtungsrate von 90 %“ keine Datenunterstützung durch autorisierte Quellen hatte. Letztendlich fiel die Seite bei relevanten Keywords wie „Diabetes-Diät“ von den Top 10 Seiten auf Platz 28 ab, und der organische Traffic sank um 63 %.
Faktische Inhalte können SEO-Ergebnisse „boosten“
Googles Algorithmen beurteilen die Inhaltsqualität anhand des Nutzerverhaltens (Klicks, Verweildauer, Scrollen). Faktische Inhalte lösen naturgemäß eher positive Verhaltensweisen aus und erzeugen einen positiven Kreislauf aus „Rankingverbesserung → Traffic-Steigerung → positiveres Verhalten → weitere Rankingverbesserung“.
- Konkrete Performance:
- Klickrate (CTR): Bei gleicher Rankingposition ist die CTR von faktischen Inhalten um 37 % höher als bei Meinungsinhalten (interne Google Ads-Daten);
- Verweildauer: Die durchschnittliche Verweildauer bei faktischen Inhalten beträgt 2 Min. 45 Sek., bei Meinungsinhalten nur 58 Sek. (SimilarWeb 2024);
- Absprungrate: Die Absprungrate bei faktischen Inhalten liegt bei 32 %, bei Meinungsinhalten bei bis zu 68 % (HubSpot 2024).
Tabelle: Vergleich des Nutzerverhaltens nach Inhaltstyp (Branchendurchschnitt 2024)
| Metrik | Faktische Inhalte | Meinungsinhalte | Differenz |
|---|---|---|---|
| Durchschnittl. Ranking | Seite 2,1 | Seite 6,3 | +4,2 Seiten |
| CTR (gleiches Ranking) | 8,7 % | 5,3 % | +3,4 % |
| Verweildauer | 2 Min. 45 Sek. | 58 Sek. | +167 Sek. |
| Absprungrate | 32 % | 68 % | +36 % |
Hochvertrauensbereiche (Medizin/Recht/Finanzen)
In „Hochrisikobereichen“ wie Medizin, Recht und Finanzen ist Googles Faktenerkennung strenger – jeder Faktenfehler oder jede Vermischung von Meinungen kann dazu führen, dass Inhalte herabgestuft oder sogar blockiert werden.
- Medizinischer Bereich: Die von Google 2023 aktualisierte „Medical Content Policy“ verlangt ausdrücklich:
- Inhalte zu Krankheitsbehandlungen, Medikamentenwirkungen usw. müssen autorisierte Quellen wie PubMed, die FDA oder die WHO zitieren;
- Wenn Inhalte Daten wie „Heilungsrate“ oder „Erfolgsrate“ enthalten, müssen Stichprobengröße, Versuchsbedingungen und Veröffentlichungszeitpunkt der Studie angegeben werden;
- Inhalte, die gegen die Regeln verstoßen, werden als „unsicher“ markiert und das Suchranking sinkt um mindestens 10 Seiten.
- Rechtlicher Bereich: Die in Zusammenarbeit zwischen der American Bar Association (ABA) und Google erstellte „Legal Content Guideline“ legt fest:
- Interpretationen von Gesetzesklauseln müssen offizielle Dokumente (wie Bundesvorschriften, Präzedenzfälle des Obersten Gerichtshofs) zitieren;
- Daten wie „Erfolgsquote“ oder „Gewinnrate“ müssen konkrete Fallquellen angeben (z. B. eine Statistik über 100 von der Kanzlei veröffentlichte Fälle);
- Inhalte, die „Gesetzesvorschriften“ mit „Anwaltsempfehlungen“ vermischen, werden darauf beschränkt, unter den ersten 5 Seiten der Suchergebnisse für „Rechtsberatung“ zu erscheinen.
Beispiel: Eine Rechtsberatungs-Website veröffentlichte „Scheidungs-Vermögensaufteilung 2024: In diesen 3 Fällen gehen Sie leer aus“ und behauptete: „Nach dem neuesten Eherecht werden Immobilien nach der Ehe grundsätzlich zu gleichen Teilen aufgeteilt“ (was im Widerspruch zum Grundsatz des Zivilgesetzbuches steht, der die Rechte von Kindern, Frauen und der unschuldigen Partei schützt). Nachdem Google den Fehler durch Abgleich mit der Rechtsdatenbank erkannt hatte, wurde die Seite als „Faktenfehler“ markiert, das Suchranking fiel von Seite 3 auf Seite 32, und die Zahl der Telefonanfragen der Kanzlei sank um 41 %.
Langfristige SEO-Strategie
- Datenvergleich: Eine Ahrefs-Studie an 1.000 Websites (Betrieb > 3 Jahre) zeigt:
- Faktische Inhalte (wie „Benzinsteuersätze der Bundesstaaten 2024“ oder „Python 3.12 neue Funktionen“) haben eine durchschnittliche jährliche organische Traffic-Wachstumsrate von 18 %;
- Meinungsinhalte (wie „Beste Anlageklassen 2024“ oder „Diese 10 Filme muss man sehen“) haben eine durchschnittliche jährliche Wachstumsrate von 5 %;
- Nach 3 Jahren liegt der Anteil der faktischen Inhalte, die noch in den Top 20 Seiten ranken, bei 67 %, bei Meinungsinhalten nur bei 29 %.
Grund: Der Bedarf an faktischen Inhalten ist „anhaltend“ (z. B. suchen Nutzer jedes Jahr nach der „neuesten Steuerpolitik“), während der Bedarf an Meinungsinhalten „kurzlebig“ ist (z. B. ist der „Beste Film des Jahres“ nur während der Preisverleihungssaison aktuell). Der Google-Algorithmus bevorzugt zudem die Empfehlung von „langfristig nützlichen“ Inhalten, weshalb die SEO-Vorteile von faktischen Inhalten stabiler sind.
Faktische Inhalte erhalten leichter „hochwertige Backlinks“
Backlinks sind eine der Kernmetriken von SEO, und Google priorisiert bei der Bewertung der Linkqualität die „faktische Glaubwürdigkeit“ des verlinkten Inhalts.
- Branchenumfrage: Eine Majestic-Linkanalyse aus dem Jahr 2024 zeigt:
- 42 % der Backlinks, die auf faktische Inhalte verweisen, stammen von autorisierten Websites (wie .gov, .edu oder führenden Fachzeitschriften);
- Bei Links auf Meinungsinhalte stammen nur 18 % von autorisierten Seiten, der Rest meist von sozialen Medien oder persönlichen Blogs;
- Hochwertige Backlinks (von autorisierten Domains) haben einen 5,3-mal stärkeren Effekt auf das Ranking als gewöhnliche Backlinks.
Beispiel: Ein Technologiemedium veröffentlichte „A17 Pro Chip des iPhone 15 Pro Max: 5nm-Verfahren oder 4nm?“, wobei offizielle TSMC-Prozessdokumente und historische Parameter der Apple A-Serie Chips zitiert wurden (jeweils mit Quellenangabe). Der Artikel wurde von AnandTech (einem autorisierten Blog im Tech-Bereich) zitiert und verlinkt. Innerhalb von 3 Monaten stieg die Anzahl der Backlinks für diese Seite von 12 auf 287, und das Suchranking sprang von Seite 15 auf Seite 2.
Abschließend möchte ich sagen, dass Googles „Faktenerkennung“ im Wesentlichen ein System zur Bewertung der Informationsglaubwürdigkeit mithilfe von EEAT darstellt.






