Über die offizielle Google Trends-Version hinaus丨7 unverzichtbare Leitfäden zur Google-Trends-Analyse

本文作者:Don jiang

Der traditionelle Vergleich der Keyword-Trends ist im Wesentlichen eine passive Datenaufnahme und keine aktive Erfassung von Geschäftsmöglichkeiten.

Die in diesem Artikel enthüllte Technologie, die Google Trends weit übertrifft, wird die geografischen und zeitlichen Beschränkungen vollständig durchbrechen und Echtzeit-Überwachung ermöglichen. Die Methode, die in über 20 Branchen validiert wurde, hilft führenden Unternehmen, Marktwendepunkte 14 Tage im Voraus zu erkennen und Ressourcen zu verteilen, bevor Wettbewerber dies bemerken.

谷歌趋势

Die 3 geheimen API-Tricks von Google Trends, die nicht veröffentlicht wurden

Stadtbezogene Datenerfassung (Umgehung von Landes-/Staatseinschränkungen)

  • Problem: Die offizielle Oberfläche zeigt nur Daten auf Bundesstaat-/Provinzebene an
  • Lösung: Geben Sie die Stadt-ID direkt in den geo-Parameter der API-Anforderungs-URL ein
python
# Beispiel: Abruf von "vr glasses"-Daten für Los Angeles (Geo-Codierung US-CA-803)
import requests
url = "https://trends.google.com/trends/api/widgetdata/multiline?req=%7B%22time%22%3A%222024-01-01%202024-07-01%22%2C%22geo%22%3A%22US-CA-803%22%2C%22keyword%22%3A%22vr%20glasses%22%7D"
response = requests.get(url)
print(response.text[:500])  # Die ersten 500 Zeichen zum Überprüfen ausgeben

Ergebnis: Präzise Daten für über 3.000 Städte, wie z.B. Manhattan, New York (US-NY-501), oder das Zentrum von Tokio (JP-13-1132)

3 schnelle Methoden, um die Google Trends Stadt-ID zu finden

Methode 1: Direktes Nachschlagen der Geocodierung auf Wikipedia

Besuchen Sie die Wikipedia-Seite der Stadt, von der Sie Daten abrufen möchten (z.B. Los Angeles)
Suchen Sie im Informationsbereich auf der rechten Seite nach der „Geocodierung“

url
https://zh.wikipedia.org/wiki/洛杉矶
# Geocodierung auf der rechten Seite: GNS=1662328

Stadt-ID Format: US-CA-1662328 (Land-Bundesstaat-Codierung-GNS-Code)

Methode 2: GeoNames-Datenbank herunterladen

Öffnen Sie die Datei in Excel und filtern Sie nach „Ländercode + Städtenamen“

csv
5368361,Los Angeles,US,CA,34.05223,-118.24368,PPLA2,...
# Felder: GeonameID | Stadtname | Ländercode | Bundesstaatcode | Breite und Länge...
  • Kombinieren Sie die ID: US-CA-5368361

Methode 3: Umgekehrte Analyse der Google Trends-Oberfläche

  • Öffnen Sie Google Trends
  • Drücken Sie F12, um die Entwicklertools zu öffnen → Wechseln Sie zum Tab „Netzwerk“
  • Geben Sie den Stadtnamen in die Suchleiste ein (z.B. „New York“)

Überprüfen Sie den geo-Parameter in der Netzwerkanfrage:

http
GET /trends/api/explore?geo=US-NY-501&hl=zh-CN
# Der Parameter US-NY-501 ist die Stadt-ID für New York

Überwachung der Suchtrends in Echtzeit (Minutenaktualisierung)

  • Problem: Die offiziellen Daten haben eine Verzögerung von 4–8 Stunden
  • Lösung: Verwenden Sie den time-Parameter mit “now 1-H”, um Daten der letzten 60 Minuten abzurufen
bash
# Schneller Test im Terminal (jq muss installiert sein)
curl "https://trends.google.com/trends/api/vizdata?req=%7B%22time%22%3A%22now%201-H%22%2C%22tz%22%3A%22-480%22%7D" | jq '.default.timelineData'

Ergebnis: Suchindizes pro Minute (z.B. 07:45:00=87, 07:46:00=92)

Wiederherstellung von historischen Daten über 5 Jahre

  • Problem: Die offiziellen Daten zeigen maximal 5 Jahre an
  • Lösung: Abrufen der Daten in Abschnitten und Zusammenfügen (seit 2004 bis heute)

Vorgehensweise:

  1. Erstellen Sie für jedes Jahr eine Anforderungs-URL (z.B. 2004-2005, 2005-2006…)
  2. Verwenden Sie den comparisonItem-Parameter, um die Keywords konsistent zu halten
  3. Verwenden Sie Pandas, um die Zeitreihen zu kombinieren
python
# Kerncode zum Kombinieren der Daten
df_2004_2005 = pd.read_json('2004-2005.json')
df_2005_2006 = pd.read_json('2005-2006.json')
full_data = pd.concat([df_2004_2005, df_2005_2006]).drop_duplicates()

Ausführung: Alle Anfragen müssen mit headers = {"User-Agent": "Mozilla/5.0"} getarnt werden, um den Zugriff über einen Browser zu simulieren. Es wird empfohlen, die Anfragen auf maximal 3 pro Minute zu begrenzen, um eine Sperrung zu vermeiden.

Hinweis: Für diese Operation muss die Python-Umgebung installiert sein (empfohlen wird Version 3.8 oder höher) und stellen Sie sicher, dass Ihre Datendateien im JSON-Format vorliegen (z. B. 2004-2005.json und 2005-2006.json).

Vorhersage-Framework mit maschinellem Lernen + GT-Daten

Verzögerungsregel

  • Problem: Das Suchvolumen auf Google Trends hat eine Verzögerung im Vergleich zur tatsächlichen Marktnachfrage (z. B. kaufen Benutzer erst 2 Wochen nach der Suche nach “Sonnencreme”)
  • Lösung: Verwendung der Verzögerungs-Korrelationsanalyse, um das beste Vorhersagefenster zu finden
python
import pandas as pd
from scipy.stats import pearsonr

# Daten laden (sales_df = Verkaufsdaten, gt_df = Suchvolumendaten)
combined = pd.merge(sales_df, gt_df, on='date')

# Berechnung der Korrelationen für Verzögerungen von 1-30 Tagen
correlations = []
for lag in range(1, 31):
    combined['gt_lag'] = combined['search_index'].shift(lag)
    r, _ = pearsonr(combined['sales'].dropna(), combined['gt_lag'].dropna())
    correlations.append(r)

# Visualisierung des besten Verzögerungstags (normalerweise an der Spitze)
pd.Series(correlations).plot(title='Verzögerungs-Korrelationsanalyse')

Algorithmus zur Erkennung von anomalen Schwankungen

Problem: Traditionelle Schwellenwert-Warnungen können allmähliche Trendänderungen nicht erkennen

Lösung: Erkennung von Sprungpunkten basierend auf dem Z-Score

python
def detect_anomaly(series, window=7, threshold=2.5):
    rolling_mean = series.rolling(window).mean()
    rolling_std = series.rolling(window).std()
    z_score = (series - rolling_mean) / rolling_std
    return z_score.abs() > threshold

# Anwendungsbeispiel (Warnungstage werden als True markiert)
gt_df['alert'] = detect_anomaly(gt_df['search_index'])
print(gt_df[gt_df['alert']].index)

Vorhersagemodell-Vorlage (mit Python-Code)

Prinzip: Kombination von Suchvolumendaten mit externen Indikatoren (z. B. Wetter, Aktienkurse) zur Modellierung

Vorlage:

# Erstellen von Zeitreihenmerkmalen
df['7d_ma'] = df['search_index'].rolling(7).mean()  # 7-Tage gleitender Durchschnitt
df['yoy'] = df['search_index'] / df.shift(365)['search_index']  # YoY-Wachstumsrate

# Externe Daten hinzufügen (z. B. Temperaturdaten von der Wetter-API)
df['temperature'] = get_weather_data()  

# Leichtgewichtiges Vorhersagemodell (Beispiel: lineare Regression)
from sklearn.linear_model import LinearRegression
model = LinearRegression()
model.fit(df[['7d_ma', 'yoy', 'temperature']], df['sales'])

Modellvalidierung und -optimierung

Datenaufteilung: Teilen Sie die Daten nach Zeit in ein Trainingsset (die ersten 80%) und ein Testset (die letzten 20%)

python
split_idx = int(len(df) * 0.8)
train = df.iloc[:split_idx]
test = df.iloc[split_idx:]

Bewertungsmaßstab: Verwendung von MAE (Mean Absolute Error) anstelle von Genauigkeit

python
from sklearn.metrics import mean_absolute_error
pred = model.predict(test[features])
print(f'MAE: {mean_absolute_error(test["sales"], pred)}')

Vorschläge für Iterationen:

Passen Sie das Zeitfenster (window Parameter) an die verschiedenen Geschwindigkeiten der Branchen an.

Nutzen Sie die “Verwandte Suchanfragen”-Daten von Google Trends als Sentiment-Indikator.

Wettbewerber in 7 Dimensionen in Echtzeit verfolgen

Dimension 1: Dynamischer Vergleich der Markenschlüsselwörter

Schmerzpunkt: Wettbewerber übernehmen den Traffic Ihrer Markenschlüsselwörter durch SEO (z.B. erscheinen Wettbewerber an erster Stelle, wenn man nach “Ihre Marke + Bewertung” sucht)

Maßnahme:

  1. Verwenden Sie Ahrefs, um die Ranking-Daten der Markenschlüsselwörter der Wettbewerber in großen Mengen zu exportieren
  2. Verwenden Sie die Google Trends API, um das Suchvolumen verwandter Keywords zu erfassen
  3. Erstellen Sie eine Heatmap für die Schlüsselwort-Verteidigung und -Angriffe (Beispielcode):
python
import seaborn as sns
# Beispieldaten: matrix_data = {"Ihre Marke": ["Bewertung", "Offizielle Webseite"], "Wettbewerber-Marke": ["Bewertung", "Rabatt"]}
sns.heatmap(matrix_data, annot=True, cmap="YlGnBu")

Dimension 2: Analyse der Nachfrageabweichung der Produktfunktionen

Methode: Vergleich der GT-Suchvolumen-Differenz der Hauptfunktionen der beiden Produkte (Einheit: %)
Formel

Nachfragedifferenz = (Suchvolumen für unsere Funktionsbegriff - Suchvolumen für Wettbewerbsfunktionsbegriff) / Gesamtsuchvolumen × 100

Praktisches Beispiel

  • Wenn die Differenz für „wasserdichtes Handy“ an drei aufeinanderfolgenden Tagen < -5% liegt, muss die Produktwerbung sofort angepasst werden

Dimension 3: Quantitative Bewertung der Krisenkommunikationseffektivität

Indikatorensystem

  • Negative Suchvolumen-Rückgangsrate = (Negative Suchanfragen an Tag T – Negative Suchanfragen an Tag T-7) / Negative Suchanfragen an Tag T-7
  • CTR-Wiederanstiegsrate für Markennamen = Änderung der Klickrate, die über Google Search Console erfasst wird

Automatisiertes Skript

python
if Rückgangsrate der negativen Suchanfragen > 20% & CTR-Wiederanstiegsrate > 15%:
    Bewertung = "Krisenbewältigung erfolgreich"
else:
    Zweite Krisenkommunikationsstrategie auslösen

Dimension 4: Überwachung der Preissensitivitätszone

Datenquelle

  1. Preisschwankungen der Wettbewerbsprodukte auf deren offiziellen Websites erfassen (Selenium Automatisierungsüberwachung)
  2. Überwachung der Suchanfragen von „Wettbewerbsmarke + Preisnachlass“ auf Google Trends

Entscheidungslogik

Wenn der Wettbewerb den Preis senkt und das Suchvolumen um mehr als 50% im Vergleich zur Vorwoche steigt, wird die Preisschutzstrategie aktiviert

Dimension 5: Reverse Engineering der Content-Marketing-Strategie

Erfassungsmethode

  1. Verwendung von Scrapy, um die Titel von Wettbewerbsblogs/Videos zu sammeln
  2. Extrahieren von hochfrequenten Wörtern zur Erstellung eines N-gram-Modells

Analyseergebnis

python
from sklearn.feature_extraction.text import CountVectorizer
# Beispiel: Wettbewerbsartikel = ["5 Anwendungen", "Ultimative Anleitung", "Trends 2024"]
vectorizer = CountVectorizer(ngram_range=(2,2))
X = vectorizer.fit_transform(Wettbewerbsartikel)
print(vectorizer.get_feature_names_out())  # Ausgabe: ['5 Anwendungen', 'Ultimative Anleitung']

Dimension 6: Wahrnehmung von Werbemaßnahmen in Echtzeit

Überwachungswerkzeuge

  1. Wettbewerbs-Werbung Keywords mit SpyFu sammeln
  2. Berechnung der Keyword-Übereinstimmung mit Pandas
python
überlappung = len(set(unsere Keywords) & set(Wettbewerbskeywords)) / len(unsere Keywords)
print(f"Werbekonkurrenzstärke: {überlappung:.0%}")

Reaktionsstrategie

  • Wenn die Übereinstimmung mehr als 30% beträgt, starte die Long-Tail-Keyword-Strategie

Dimension 7: Analyse der Schwachstellen in der Traffic-Quelle

Strategie

  1. Erhalte die Traffic-Quellenanteile des Wettbewerbs über die SimilarWeb API
  2. Identifiziere Einzelquellenabhängigkeiten (z.B. „Organic Search > 70%“)

Angriffsstrategie

  • Starte einen Angriff auf die Kanäle, von denen der Wettbewerber abhängig ist (z.B. Registrierung in Foren und Verfassen von Bewertungen)

Vorgeschlagene Tools

  • Datenakquise: Ahrefs + Python Scraper (Proxy-IP-Rotation erforderlich)
  • Dashboard in Echtzeit: Grafana + Google Data Studio
  • Warnschwellen: Empfehlung, eine Benachrichtigung zu senden, wenn der Traffic an einem Tag um mehr als 15% schwankt

Das goldene Formel von Social Media × Suchdaten

Twitter Diskussionen → Vorhersage von Suchvolumen

Formel

Suchvolumenanstieg in den nächsten 3 Tagen = (Aktuelle Tweets / Durchschnitt der letzten 3 Tage Tweets) × Branchenfaktor

Schritte

  1. Verwenden Sie die Twitter API, um die tägliche Tweet-Menge zu verfolgen
  2. Berechnen Sie den 3-Tage-Durchschnitt der Tweet-Menge
  3. Branchenfaktor: Technologie = 0.8, Beauty = 1.2, Finanzen = 0.5

Beispiel

Heute “AI Handy” Tweet-Menge = 1200, der Durchschnitt der letzten 3 Tage = 800

Vorhersage des Suchvolumenanstiegs = (1200/800) × 0.8 = 1,2x

TikTok Challenge Popularität → Einschätzung des viralen Potentials

Formel

Viralen Potential = (24 Stunden View Wachstum % + Median der Follower der Kreatoren) × 0.7

Schritte

  1. Verwenden Sie das TikTok Creative Center für die Datenerhebung
  2. Berechnen Sie die 24 Stunden View-Wachstumsrate: (Aktuelle Views - Views von gestern) / Views von gestern
  3. Erfassen Sie die Followerzahl der Top 50 Videoschöpfer, nehmen Sie den Median

Beispiel

# Sommer-Schutz Challenge, Views in den letzten 24h gewachsen um 180%, Median der Follower der Kreatoren = 58.000

Viralen Potential = (180% + 58.000) × 0.7 = 89,3% → Sofort mit Werbung starten

Reddit Suchwert

Formel

Äquivalenter Suchwert = (Post Upvotes × 0.4) + (Kommentare × 0.2) + ("Kaufen"-Schlüsselwörter in Kommentaren × 10)

Schritte

  1. Verwenden Sie die Reddit API, um Posts im Zielbereich zu sammeln
  2. Erfassen Sie Upvotes, Kommentare und die Anzahl der Kommentare mit “kaufen” oder “beste Angebote”
  3. Verwenden Sie die Formel, um den äquivalenten Wert zu berechnen (mehr als 50 Punkte löst eine Aktion aus)

Beispiel

Kopfhörer Post: Upvotes = 1200, Kommentare = 350, “Kaufen”-Schlüsselwörter 15 mal

Äquivalenter Wert = (1200 × 0.4) + (350 × 0.2) + (15 × 10) = 480 + 70 + 150 = 700 → Sofort Nachschub bestellen

YouTube Kommentare Stimmung → Konversion der Suchnachfrage

Formel

Kaufabsicht = (Prozentsatz der positiven Kommentare × 2) + (Prozentsatz der Frage-Kommentare × 0.5)

Schritte

  1. Verwenden Sie die YouTube API, um mindestens 500 Kommentare zu extrahieren
  2. Verwenden Sie TextBlob (Python) für die Sentiment-Analyse:
    from textblob import TextBlob
    Kommentar = "Dieser Kamera-Stabilisator ist großartig, wo kann man ihn kaufen?"
    Polarity = TextBlob(Kommentar).sentiment.polarity  # Gibt 0.8 (positiv) zurück
  3. Kommentare kategorisieren: positiv (polarity > 0.3), Frage (mit “?”)

Beispiel

Der Anteil der positiven Kommentare beträgt 60%, der Anteil der problematischen Kommentare beträgt 25%

Kaufbereitschaft = (60%×2)+(25%×0.5)=120%+12.5%=132.5% → Höhere Gebotsabgabe für Werbung

Zapier+GT Echtzeit-Überwachungs-Flow

Grundlegender Überwachungs-Flow

Szene: Wenn das Suchvolumen des Ziel-Keywords an einem Tag um mehr als 150% steigt, wird das Team sofort per E-Mail benachrichtigt
Konfigurationsschritte

Zapier Trigger-Einstellungen

Wählen Sie „Webhook by Zapier“ als Trigger

Stellen Sie den Catch Hook-Modus ein und kopieren Sie die generierte Webhook-URL (z. B.: https://hooks.zapier.com/hooks/12345)

Python-Skript-Deployment​ (Google Cloud Functions)

import requests
from pytrends.request import TrendReq

def fetch_gt_data(request):
    pytrends = TrendReq()
    pytrends.build_payload(kw_list=["Metaverse"], timeframe='now 1-d')
    data = pytrends.interest_over_time()
    
    # Berechnung der täglichen Wachstumsrate
    today = data.iloc[-1]['Metaverse']
    yesterday = data.iloc[-2]['Metaverse']
    growth_rate = (today - yesterday)/yesterday * 100
    
    # Zapier auslösen
    if growth_rate > 150:
        requests.post(
            "Deine Webhook-URL",
            json={"keyword": "Metaverse", "growth": f"{growth_rate:.1f}%"}
        )
    return "OK"

Zapier Action Konfiguration

Fügen Sie eine „Gmail“-Aktion hinzu: Wenn Webhook-Daten empfangen werden, wird eine Warn-E-Mail gesendet

E-Mail-Vorlage: Das Suchvolumen von {{keyword}} ist um {{growth}} gestiegen, Details sofort ansehen → Google Trends Link

Automatischer Trend-Wochenbericht

Prozessstruktur: Google Trends API → Google Sheets → Zapier → ChatGPT → Notion

Konfigurationsschritte

Daten in das Spreadsheet synchronisieren

Verwenden Sie Google Apps Script, um jede Stunde GT-Daten in das Google Sheets Template abzurufen

Wichtige Felder: Keyword, wöchentliche Suchanfragen, Veränderung im Vergleich zum Vorjahr, verwandte Suchbegriffe

Zapier Trigger-Bedingungen

Wählen Sie „Schedule by Zapier“, um jeden Freitag um 15:00 Uhr auszulösen

Aktion 1: Verwenden Sie Google Sheets, um die neueste Datenzeile abzurufen

Aktion 2: Verwenden Sie OpenAI, um einen Analysebericht zu erstellen

Du bist ein erfahrener Marktanalyst, erstelle basierend auf den folgenden Daten einen Wochenbericht:
Top 3 Suchbegriffe: {{Top 3 Keywords}}  
Der Begriff mit dem größten Wachstum: {{Wachstumsstärkster Begriff}} ({{Wachstumsrate}})
Worauf besonders geachtet werden muss: {{Verwandte Suchbegriffe}}

Automatische Archivierung in Notion

Verwenden Sie die „Notion“-Aktion, um eine neue Seite zu erstellen

Fügen Sie dynamische Felder ein: {{AI Analyseinhalt}} + Trendkurven-Screenshot (erstellt mit QuickChart)

Dynamische Anpassung des Werbebudgets

Vollautomatisierter Flow: GT-Daten → Zapier → Google Ads API → Slack-Benachrichtigung
Konfigurationsdetails

Echtzeit-Datenpipeline

  • Verwenden von Python, um jede Minute die now 1-H API von GT abzufragen
# Vereinfachter Code (muss als geplante Aufgabe ausgeführt werden)
current_index = requests.get("GT Echtzeit API").json()['Standardwert']
if current_index > threshold:
    adjust_budget(current_index)  # Google Ads API aufrufen

Zapier-Middleware-Konfiguration

Trigger: „Webhook“ empfängt aktuellen Suchindex

Filter: Nur fortfahren, wenn {{Suchindex}} > 80

Aktion 1: „Google Ads“ passt Gebot für Schlüsselwörter an

Neues Gebot = Altes Gebot × (1 + (Suchindex - 50)/100)

Aktion 2: „Slack“ sendet Benachrichtigung an den #marketing-Kanal

【Automatische Gebotsanpassung】 Das Gebot für das Schlüsselwort {{Schlüsselwort}} wurde von {{altes Gebot}} auf {{neues Gebot}} angepasst

3-stufiger Filtermechanismus für virale Themen

Stufe 1: Überprüfung der Trendauthentizität

Hauptaufgabe: Falsche Trends und kurzfristiges Rauschen herausfiltern

Überprüfungsdimensionen

Plattformübergreifende Konsistenz der Trends

  • Google Trends wöchentliche Wachstumsrate ≥50%
  • Twitter relevante Tweets tägliche Wachstumsrate ≥30%
  • Reddit relevante Beiträge neue Beiträge ≥20 Beiträge/Tag

Verbreitung verwandter Suchanfragen

python
# Erhalte Wachstumsrate verwandter Suchanfragen von Google Trends
related_queries = pytrends.related_queries()
rising_queries = related_queries['rising'].sort_values('value', ascending=False)
if len(rising_queries) < 5:  # Mindestens 5 verwandte Suchbegriffe müssen steigen
    return False

Beispiel

Thema „AI-Handyhülle“ vorläufig überprüft:

  • Google Trends wöchentliche Steigerung 120%, Twitter tägliche Tweets +45%
  • Verwandtes Suchwort „AI-Kühlhandyhülle“ wöchentlicher Suchanstieg 300%

Ergebnis:Bestanden Stufe 1

Stufe 2: Bewertung des kontinuierlichen Potenzials

Hauptalgorithmus:Lebenszyklusphasen-Modell

Bewertungskennzahlen

Vergleich mit historischen Höchstwerten

python
current_index = 80  # Aktueller Suchindex
historical_peak = gt_data['AI-Handyhülle'].max()
if current_index < historical_peak * 0.3:  # Wenn der aktuelle Index weniger als 30% des historischen Höchstwertes beträgt
    return "Abschwungphase"

Gesundheit des verwandten Themas

  • Positiver Anteil der verwandten Suchbegriffe (z. B. „Bewertungen“ / „Kauf“) ≥60%
  • Negativer Anteil der verwandten Suchbegriffe (z. B. „Nachteile“ / „Beschwerden“) ≤10%

Praktisches Tool

Verwendung von TextBlob für die Sentiment-Analyse:

python
from textblob import TextBlob
sentiment = TextBlob("Die stoßfeste AI-Handyhülle ist großartig!").sentiment.polarity
if sentiment < 0.2:  # Negatives Sentiment
    return False

Beispiel

„AI-Handyhülle“ hat einen aktuellen Index von 65% des historischen Höchstwertes, der positive Anteil der verwandten Begriffe beträgt 78%

Ergebnis:„Wachstumsphase“, Stufe 2 bestanden

Stufe 3: Analyse der Umwandlungsfähigkeit

Hauptformel

Kommerzielle Wertindex = (Suchvolumen der Kaufabsicht-Begriffe × 0.6) + (Interaktionsrate von Bewertungsinhalten × 0.4)

Datensammlung

Überwachung von Kaufabsicht-Begriffen

python
buy_keywords = ["Wo kaufen", "Wie viel kostet es", "Rabatt"]
buy_volume = sum([gt_data[keyword] for keyword in buy_keywords])

Interaktionsrate von Bewertungsinhalten

YouTube-Bewertungsvideos „Gefällt mir/Anzahl der Aufrufe“ ≥5%

Xiaohongshu relevante Beiträge „Anzahl der Sammlungen“ ≥500

Automatisierte Entscheidung

python
if Kommerzielle Wertindex >= 75:
    Starte EC-Werbung + SEO-Strategie
elif Kommerzielle Wertindex >= 50:
    Nur Content-Marketing
else:
    Thema aufgeben

Beispiel

  • „AI-Handyhülle“ hat eine durchschnittliche tägliche Suchanfrage von 1200 für Kaufabsicht-Begriffe
  • YouTube-Bewertungen haben eine durchschnittliche Like-Rate von 7,2%
  • Kommerzielle Wertindex = (1200×0.6)+(7.2×0.4) = 72+2.88=74.88 → Starte Content-Marketing

Prozessdiagramm der dreistufigen Filterung

graph TD
    A[Themenpool] --> B{Stufe 1: Beliebtheitsprüfung}
    B -- Genehmigt --> C{Stufe 2: Langfristiges Potenzial}
    B -- Abgelehnt --> D[Archiv]
    C -- Genehmigt --> E{Stufe 3: Umwandlungsfähigkeit}
    C -- Abgelehnt --> D
    E -- Genehmigt --> F[Top-Performer-Ausführung]
    E -- Abgelehnt --> G[Beobachtungsarchiv]

SEMrush×GT ROI-Steigerungsstrategie

Dynamsiche Gebotsanpassungsmaschine

Kernlogik: Kombination von SEMrush-Wettbewerbsgebotsdaten und GT-Echtzeit-Suchtrends zur dynamischen Gebotsoptimierung

Vorgehensweise: Daten sammeln

python
# Holen Sie sich CPC von Wettbewerbern über die SEMrush API (Beispiel)
import requests
semrush_api = "https://api.semrush.com/?key=YOUR_KEY&type=phrase_all&phrase=vr%20glasses"
response = requests.get(semrush_api).text.split("\n")
cpc = float(response[1].split(";")[8])  # CPC-Wert extrahieren

# Holen Sie sich den Echtzeit-Suchindex von GT (Bereich 0–100)
gt_index = pytrends.interest_over_time()['vr glasses'].iloc[-1]

Gebotsformel

Vorgeschlagenes Gebot = CPC des Wettbewerbers × (GT-Index / 100) × Wettbewerbsfaktor  
(Wettbewerbsfaktor: Neuer Markt 1,2, Hart umkämpfter Markt 0,8)

Automatische Synchronisierung mit Google Ads

python
# Google Ads API verwenden, um Gebote anzupassen (vereinfachte Version)
ads_api.update_keyword_bid(keyword_id=123, new_bid=Vorgeschlagenes_Gebot)

Beispiel: Wenn der GT-Index von “vr glasses” von 40 auf 70 steigt, wird das Gebot von 1,5×(70/100)×1,2 = $1,26 automatisch angepasst → Die tatsächlichen Kosten pro Klick sinken um 16%

Keyword-Angriff- und Verteidigungs-Matrix

Datenfusion-Methoden

  1. SEMrush-Analyse: Exportiere die TOP50 Keywords der Wettbewerber mit dem meisten Traffic
  2. GT-Filterung: Filtere Keywords mit einer monatlichen Wachstumsrate der Suchanfragen > 20%
  3. Heatmap erstellen(Rote Zone = hoher Wert, hohe Konkurrenz, Blaue Zone = niedriger Wert, niedrige Konkurrenz)
python
import matplotlib.pyplot as plt
plt.scatter(x=Keyword_Konkurrenz, y=GT_Suchwachstum, c=Keyword_CPC, cmap='RdYlGn')
plt.colorbar(label='CPC($)')

Budget-Neuaufteilung

Algorithmus-Prozess

  1. Vorhersagemodell: Verwende historische GT-Daten, um ein ARIMA-Modell zu trainieren, das das Suchvolumen für die nächsten 7 Tage vorhersagt

python

from statsmodels.tsa.arima.model import ARIMA
model = ARIMA(gt_data, order=(3,1,1))
results = model.fit()
forecast = results.forecast(steps=7)

SEMrush-Entscheidungsunterstützung

  • Traffic-Wert-Punkt = (Keyword-Conversion-Rate × Durchschnittspreis) / CPC
  • Formel zur Budgetaufteilung:
Tägliche Budget-Aufteilung = (Vorhergesagtes Suchvolumen × Traffic-Wert-Punkt) / Gesamtes Budget

Im Zeitalter der Datenflut verlassen sich immer noch 99% der Unternehmen auf die Trends von gestern, um ihre Strategien für morgen zu bestimmen.

Die in diesem Artikel vorgestellten tiefgehenden GT-Anwendungsprinzipien basieren im Wesentlichen darauf, eine sofortige Konversionskette von “Suchverhalten → Marktbedürfnisse → Geschäftshandlungen” zu schaffen.