Der traditionelle Vergleich der Keyword-Trends ist im Wesentlichen eine passive Datenaufnahme und keine aktive Erfassung von Geschäftsmöglichkeiten.
Die in diesem Artikel enthüllte Technologie, die Google Trends weit übertrifft, wird die geografischen und zeitlichen Beschränkungen vollständig durchbrechen und Echtzeit-Überwachung ermöglichen. Die Methode, die in über 20 Branchen validiert wurde, hilft führenden Unternehmen, Marktwendepunkte 14 Tage im Voraus zu erkennen und Ressourcen zu verteilen, bevor Wettbewerber dies bemerken.
Die 3 geheimen API-Tricks von Google Trends, die nicht veröffentlicht wurden
Stadtbezogene Datenerfassung (Umgehung von Landes-/Staatseinschränkungen)
- Problem: Die offizielle Oberfläche zeigt nur Daten auf Bundesstaat-/Provinzebene an
- Lösung: Geben Sie die Stadt-ID direkt in den
geo
-Parameter der API-Anforderungs-URL ein
# Beispiel: Abruf von "vr glasses"-Daten für Los Angeles (Geo-Codierung US-CA-803)
import requests
url = "https://trends.google.com/trends/api/widgetdata/multiline?req=%7B%22time%22%3A%222024-01-01%202024-07-01%22%2C%22geo%22%3A%22US-CA-803%22%2C%22keyword%22%3A%22vr%20glasses%22%7D"
response = requests.get(url)
print(response.text[:500]) # Die ersten 500 Zeichen zum Überprüfen ausgeben
Ergebnis: Präzise Daten für über 3.000 Städte, wie z.B. Manhattan, New York (US-NY-501), oder das Zentrum von Tokio (JP-13-1132)
3 schnelle Methoden, um die Google Trends Stadt-ID zu finden
Methode 1: Direktes Nachschlagen der Geocodierung auf Wikipedia
Besuchen Sie die Wikipedia-Seite der Stadt, von der Sie Daten abrufen möchten (z.B. Los Angeles)
Suchen Sie im Informationsbereich auf der rechten Seite nach der „Geocodierung“
https://zh.wikipedia.org/wiki/洛杉矶
# Geocodierung auf der rechten Seite: GNS=1662328
Stadt-ID Format: US-CA-1662328
(Land-Bundesstaat-Codierung-GNS-Code)
Methode 2: GeoNames-Datenbank herunterladen
- Besuchen Sie die kostenlose GeoNames-Datenbank
- Laden Sie
cities15000.zip
herunter (Daten zu Städten mit mehr als 15.000 Einwohnern)
Öffnen Sie die Datei in Excel und filtern Sie nach „Ländercode + Städtenamen“
5368361,Los Angeles,US,CA,34.05223,-118.24368,PPLA2,...
# Felder: GeonameID | Stadtname | Ländercode | Bundesstaatcode | Breite und Länge...
- Kombinieren Sie die ID:
US-CA-5368361
Methode 3: Umgekehrte Analyse der Google Trends-Oberfläche
- Öffnen Sie Google Trends
- Drücken Sie F12, um die Entwicklertools zu öffnen → Wechseln Sie zum Tab „Netzwerk“
- Geben Sie den Stadtnamen in die Suchleiste ein (z.B. „New York“)
Überprüfen Sie den geo
-Parameter in der Netzwerkanfrage:
GET /trends/api/explore?geo=US-NY-501&hl=zh-CN
# Der Parameter US-NY-501 ist die Stadt-ID für New York
Überwachung der Suchtrends in Echtzeit (Minutenaktualisierung)
- Problem: Die offiziellen Daten haben eine Verzögerung von 4–8 Stunden
- Lösung: Verwenden Sie den
time
-Parameter mit “now 1-H”, um Daten der letzten 60 Minuten abzurufen
# Schneller Test im Terminal (jq muss installiert sein)
curl "https://trends.google.com/trends/api/vizdata?req=%7B%22time%22%3A%22now%201-H%22%2C%22tz%22%3A%22-480%22%7D" | jq '.default.timelineData'
Ergebnis: Suchindizes pro Minute (z.B. 07:45:00=87, 07:46:00=92)
Wiederherstellung von historischen Daten über 5 Jahre
- Problem: Die offiziellen Daten zeigen maximal 5 Jahre an
- Lösung: Abrufen der Daten in Abschnitten und Zusammenfügen (seit 2004 bis heute)
Vorgehensweise:
- Erstellen Sie für jedes Jahr eine Anforderungs-URL (z.B. 2004-2005, 2005-2006…)
- Verwenden Sie den
comparisonItem
-Parameter, um die Keywords konsistent zu halten - Verwenden Sie Pandas, um die Zeitreihen zu kombinieren
# Kerncode zum Kombinieren der Daten
df_2004_2005 = pd.read_json('2004-2005.json')
df_2005_2006 = pd.read_json('2005-2006.json')
full_data = pd.concat([df_2004_2005, df_2005_2006]).drop_duplicates()
Ausführung: Alle Anfragen müssen mit headers = {"User-Agent": "Mozilla/5.0"}
getarnt werden, um den Zugriff über einen Browser zu simulieren. Es wird empfohlen, die Anfragen auf maximal 3 pro Minute zu begrenzen, um eine Sperrung zu vermeiden.
Hinweis: Für diese Operation muss die Python-Umgebung installiert sein (empfohlen wird Version 3.8 oder höher) und stellen Sie sicher, dass Ihre Datendateien im JSON-Format vorliegen (z. B. 2004-2005.json
und 2005-2006.json
).
Vorhersage-Framework mit maschinellem Lernen + GT-Daten
Verzögerungsregel
- Problem: Das Suchvolumen auf Google Trends hat eine Verzögerung im Vergleich zur tatsächlichen Marktnachfrage (z. B. kaufen Benutzer erst 2 Wochen nach der Suche nach “Sonnencreme”)
- Lösung: Verwendung der Verzögerungs-Korrelationsanalyse, um das beste Vorhersagefenster zu finden
import pandas as pd
from scipy.stats import pearsonr
# Daten laden (sales_df = Verkaufsdaten, gt_df = Suchvolumendaten)
combined = pd.merge(sales_df, gt_df, on='date')
# Berechnung der Korrelationen für Verzögerungen von 1-30 Tagen
correlations = []
for lag in range(1, 31):
combined['gt_lag'] = combined['search_index'].shift(lag)
r, _ = pearsonr(combined['sales'].dropna(), combined['gt_lag'].dropna())
correlations.append(r)
# Visualisierung des besten Verzögerungstags (normalerweise an der Spitze)
pd.Series(correlations).plot(title='Verzögerungs-Korrelationsanalyse')
Algorithmus zur Erkennung von anomalen Schwankungen
Problem: Traditionelle Schwellenwert-Warnungen können allmähliche Trendänderungen nicht erkennen
Lösung: Erkennung von Sprungpunkten basierend auf dem Z-Score
def detect_anomaly(series, window=7, threshold=2.5):
rolling_mean = series.rolling(window).mean()
rolling_std = series.rolling(window).std()
z_score = (series - rolling_mean) / rolling_std
return z_score.abs() > threshold
# Anwendungsbeispiel (Warnungstage werden als True markiert)
gt_df['alert'] = detect_anomaly(gt_df['search_index'])
print(gt_df[gt_df['alert']].index)
Vorhersagemodell-Vorlage (mit Python-Code)
Prinzip: Kombination von Suchvolumendaten mit externen Indikatoren (z. B. Wetter, Aktienkurse) zur Modellierung
Vorlage:
# Erstellen von Zeitreihenmerkmalen
df['7d_ma'] = df['search_index'].rolling(7).mean() # 7-Tage gleitender Durchschnitt
df['yoy'] = df['search_index'] / df.shift(365)['search_index'] # YoY-Wachstumsrate
# Externe Daten hinzufügen (z. B. Temperaturdaten von der Wetter-API)
df['temperature'] = get_weather_data()
# Leichtgewichtiges Vorhersagemodell (Beispiel: lineare Regression)
from sklearn.linear_model import LinearRegression
model = LinearRegression()
model.fit(df[['7d_ma', 'yoy', 'temperature']], df['sales'])
Modellvalidierung und -optimierung
Datenaufteilung: Teilen Sie die Daten nach Zeit in ein Trainingsset (die ersten 80%) und ein Testset (die letzten 20%)
split_idx = int(len(df) * 0.8)
train = df.iloc[:split_idx]
test = df.iloc[split_idx:]
Bewertungsmaßstab: Verwendung von MAE (Mean Absolute Error) anstelle von Genauigkeit
from sklearn.metrics import mean_absolute_error
pred = model.predict(test[features])
print(f'MAE: {mean_absolute_error(test["sales"], pred)}')
Vorschläge für Iterationen:
Passen Sie das Zeitfenster (window
Parameter) an die verschiedenen Geschwindigkeiten der Branchen an.
Nutzen Sie die “Verwandte Suchanfragen”-Daten von Google Trends als Sentiment-Indikator.
Wettbewerber in 7 Dimensionen in Echtzeit verfolgen
Dimension 1: Dynamischer Vergleich der Markenschlüsselwörter
Schmerzpunkt: Wettbewerber übernehmen den Traffic Ihrer Markenschlüsselwörter durch SEO (z.B. erscheinen Wettbewerber an erster Stelle, wenn man nach “Ihre Marke + Bewertung” sucht)
Maßnahme:
- Verwenden Sie
Ahrefs
, um die Ranking-Daten der Markenschlüsselwörter der Wettbewerber in großen Mengen zu exportieren - Verwenden Sie die
Google Trends API
, um das Suchvolumen verwandter Keywords zu erfassen - Erstellen Sie eine Heatmap für die Schlüsselwort-Verteidigung und -Angriffe (Beispielcode):
import seaborn as sns
# Beispieldaten: matrix_data = {"Ihre Marke": ["Bewertung", "Offizielle Webseite"], "Wettbewerber-Marke": ["Bewertung", "Rabatt"]}
sns.heatmap(matrix_data, annot=True, cmap="YlGnBu")
Dimension 2: Analyse der Nachfrageabweichung der Produktfunktionen
Methode: Vergleich der GT-Suchvolumen-Differenz der Hauptfunktionen der beiden Produkte (Einheit: %)
Formel:
Nachfragedifferenz = (Suchvolumen für unsere Funktionsbegriff - Suchvolumen für Wettbewerbsfunktionsbegriff) / Gesamtsuchvolumen × 100
Praktisches Beispiel:
- Wenn die Differenz für „wasserdichtes Handy“ an drei aufeinanderfolgenden Tagen < -5% liegt, muss die Produktwerbung sofort angepasst werden
Dimension 3: Quantitative Bewertung der Krisenkommunikationseffektivität
Indikatorensystem:
- Negative Suchvolumen-Rückgangsrate = (Negative Suchanfragen an Tag T – Negative Suchanfragen an Tag T-7) / Negative Suchanfragen an Tag T-7
- CTR-Wiederanstiegsrate für Markennamen = Änderung der Klickrate, die über
Google Search Console
erfasst wird
Automatisiertes Skript:
if Rückgangsrate der negativen Suchanfragen > 20% & CTR-Wiederanstiegsrate > 15%:
Bewertung = "Krisenbewältigung erfolgreich"
else:
Zweite Krisenkommunikationsstrategie auslösen
Dimension 4: Überwachung der Preissensitivitätszone
Datenquelle:
- Preisschwankungen der Wettbewerbsprodukte auf deren offiziellen Websites erfassen (
Selenium
Automatisierungsüberwachung) - Überwachung der Suchanfragen von „Wettbewerbsmarke + Preisnachlass“ auf Google Trends
Entscheidungslogik:
Wenn der Wettbewerb den Preis senkt und das Suchvolumen um mehr als 50% im Vergleich zur Vorwoche steigt, wird die Preisschutzstrategie aktiviert
Dimension 5: Reverse Engineering der Content-Marketing-Strategie
Erfassungsmethode:
- Verwendung von
Scrapy
, um die Titel von Wettbewerbsblogs/Videos zu sammeln - Extrahieren von hochfrequenten Wörtern zur Erstellung eines N-gram-Modells
Analyseergebnis:
from sklearn.feature_extraction.text import CountVectorizer
# Beispiel: Wettbewerbsartikel = ["5 Anwendungen", "Ultimative Anleitung", "Trends 2024"]
vectorizer = CountVectorizer(ngram_range=(2,2))
X = vectorizer.fit_transform(Wettbewerbsartikel)
print(vectorizer.get_feature_names_out()) # Ausgabe: ['5 Anwendungen', 'Ultimative Anleitung']
Dimension 6: Wahrnehmung von Werbemaßnahmen in Echtzeit
Überwachungswerkzeuge:
- Wettbewerbs-Werbung Keywords mit
SpyFu
sammeln - Berechnung der Keyword-Übereinstimmung mit
Pandas
überlappung = len(set(unsere Keywords) & set(Wettbewerbskeywords)) / len(unsere Keywords)
print(f"Werbekonkurrenzstärke: {überlappung:.0%}")
Reaktionsstrategie:
- Wenn die Übereinstimmung mehr als 30% beträgt, starte die Long-Tail-Keyword-Strategie
Dimension 7: Analyse der Schwachstellen in der Traffic-Quelle
Strategie:
- Erhalte die Traffic-Quellenanteile des Wettbewerbs über die
SimilarWeb API
- Identifiziere Einzelquellenabhängigkeiten (z.B. „Organic Search > 70%“)
Angriffsstrategie:
- Starte einen Angriff auf die Kanäle, von denen der Wettbewerber abhängig ist (z.B. Registrierung in Foren und Verfassen von Bewertungen)
Vorgeschlagene Tools:
- Datenakquise: Ahrefs + Python Scraper (Proxy-IP-Rotation erforderlich)
- Dashboard in Echtzeit: Grafana + Google Data Studio
- Warnschwellen: Empfehlung, eine Benachrichtigung zu senden, wenn der Traffic an einem Tag um mehr als 15% schwankt
Das goldene Formel von Social Media × Suchdaten
Twitter Diskussionen → Vorhersage von Suchvolumen
Formel:
Suchvolumenanstieg in den nächsten 3 Tagen = (Aktuelle Tweets / Durchschnitt der letzten 3 Tage Tweets) × Branchenfaktor
Schritte:
- Verwenden Sie die
Twitter API
, um die tägliche Tweet-Menge zu verfolgen - Berechnen Sie den 3-Tage-Durchschnitt der Tweet-Menge
- Branchenfaktor: Technologie = 0.8, Beauty = 1.2, Finanzen = 0.5
Beispiel:
Heute “AI Handy” Tweet-Menge = 1200, der Durchschnitt der letzten 3 Tage = 800
Vorhersage des Suchvolumenanstiegs = (1200/800) × 0.8 = 1,2x
TikTok Challenge Popularität → Einschätzung des viralen Potentials
Formel:
Viralen Potential = (24 Stunden View Wachstum % + Median der Follower der Kreatoren) × 0.7
Schritte:
- Verwenden Sie das
TikTok Creative Center
für die Datenerhebung - Berechnen Sie die 24 Stunden View-Wachstumsrate:
(Aktuelle Views - Views von gestern) / Views von gestern
- Erfassen Sie die Followerzahl der Top 50 Videoschöpfer, nehmen Sie den Median
Beispiel:
# Sommer-Schutz Challenge, Views in den letzten 24h gewachsen um 180%, Median der Follower der Kreatoren = 58.000
Viralen Potential = (180% + 58.000) × 0.7 = 89,3% → Sofort mit Werbung starten
Reddit Suchwert
Formel:
Äquivalenter Suchwert = (Post Upvotes × 0.4) + (Kommentare × 0.2) + ("Kaufen"-Schlüsselwörter in Kommentaren × 10)
Schritte:
- Verwenden Sie die
Reddit API
, um Posts im Zielbereich zu sammeln - Erfassen Sie Upvotes, Kommentare und die Anzahl der Kommentare mit “kaufen” oder “beste Angebote”
- Verwenden Sie die Formel, um den äquivalenten Wert zu berechnen (mehr als 50 Punkte löst eine Aktion aus)
Beispiel:
Kopfhörer Post: Upvotes = 1200, Kommentare = 350, “Kaufen”-Schlüsselwörter 15 mal
Äquivalenter Wert = (1200 × 0.4) + (350 × 0.2) + (15 × 10) = 480 + 70 + 150 = 700 → Sofort Nachschub bestellen
YouTube Kommentare Stimmung → Konversion der Suchnachfrage
Formel:
Kaufabsicht = (Prozentsatz der positiven Kommentare × 2) + (Prozentsatz der Frage-Kommentare × 0.5)
Schritte:
- Verwenden Sie die
YouTube API
, um mindestens 500 Kommentare zu extrahieren - Verwenden Sie
TextBlob
(Python) für die Sentiment-Analyse:from textblob import TextBlob Kommentar = "Dieser Kamera-Stabilisator ist großartig, wo kann man ihn kaufen?" Polarity = TextBlob(Kommentar).sentiment.polarity # Gibt 0.8 (positiv) zurück
- Kommentare kategorisieren: positiv (polarity > 0.3), Frage (mit “?”)
Beispiel:
Der Anteil der positiven Kommentare beträgt 60%, der Anteil der problematischen Kommentare beträgt 25%
Kaufbereitschaft = (60%×2)+(25%×0.5)=120%+12.5%=132.5% → Höhere Gebotsabgabe für Werbung
Zapier+GT Echtzeit-Überwachungs-Flow
Grundlegender Überwachungs-Flow
Szene: Wenn das Suchvolumen des Ziel-Keywords an einem Tag um mehr als 150% steigt, wird das Team sofort per E-Mail benachrichtigt
Konfigurationsschritte:
Zapier Trigger-Einstellungen
Wählen Sie „Webhook by Zapier“ als Trigger
Stellen Sie den Catch Hook
-Modus ein und kopieren Sie die generierte Webhook-URL (z. B.: https://hooks.zapier.com/hooks/12345
)
Python-Skript-Deployment (Google Cloud Functions)
import requests
from pytrends.request import TrendReq
def fetch_gt_data(request):
pytrends = TrendReq()
pytrends.build_payload(kw_list=["Metaverse"], timeframe='now 1-d')
data = pytrends.interest_over_time()
# Berechnung der täglichen Wachstumsrate
today = data.iloc[-1]['Metaverse']
yesterday = data.iloc[-2]['Metaverse']
growth_rate = (today - yesterday)/yesterday * 100
# Zapier auslösen
if growth_rate > 150:
requests.post(
"Deine Webhook-URL",
json={"keyword": "Metaverse", "growth": f"{growth_rate:.1f}%"}
)
return "OK"
Zapier Action Konfiguration
Fügen Sie eine „Gmail“-Aktion hinzu: Wenn Webhook-Daten empfangen werden, wird eine Warn-E-Mail gesendet
E-Mail-Vorlage: Das Suchvolumen von {{keyword}}
ist um {{growth}}
gestiegen, Details sofort ansehen → Google Trends Link
Automatischer Trend-Wochenbericht
Prozessstruktur: Google Trends API → Google Sheets → Zapier → ChatGPT → Notion
Konfigurationsschritte:
Daten in das Spreadsheet synchronisieren
Verwenden Sie Google Apps Script
, um jede Stunde GT-Daten in das Google Sheets Template abzurufen
Wichtige Felder: Keyword, wöchentliche Suchanfragen, Veränderung im Vergleich zum Vorjahr, verwandte Suchbegriffe
Zapier Trigger-Bedingungen
Wählen Sie „Schedule by Zapier“, um jeden Freitag um 15:00 Uhr auszulösen
Aktion 1: Verwenden Sie Google Sheets, um die neueste Datenzeile abzurufen
Aktion 2: Verwenden Sie OpenAI, um einen Analysebericht zu erstellen
Du bist ein erfahrener Marktanalyst, erstelle basierend auf den folgenden Daten einen Wochenbericht:
Top 3 Suchbegriffe: {{Top 3 Keywords}}
Der Begriff mit dem größten Wachstum: {{Wachstumsstärkster Begriff}} ({{Wachstumsrate}})
Worauf besonders geachtet werden muss: {{Verwandte Suchbegriffe}}
Automatische Archivierung in Notion
Verwenden Sie die „Notion“-Aktion, um eine neue Seite zu erstellen
Fügen Sie dynamische Felder ein: {{AI Analyseinhalt}}
+ Trendkurven-Screenshot (erstellt mit QuickChart
)
Dynamische Anpassung des Werbebudgets
Vollautomatisierter Flow: GT-Daten → Zapier → Google Ads API → Slack-Benachrichtigung
Konfigurationsdetails:
Echtzeit-Datenpipeline
- Verwenden von
Python
, um jede Minute dienow 1-H
API von GT abzufragen
# Vereinfachter Code (muss als geplante Aufgabe ausgeführt werden)
current_index = requests.get("GT Echtzeit API").json()['Standardwert']
if current_index > threshold:
adjust_budget(current_index) # Google Ads API aufrufen
Zapier-Middleware-Konfiguration
Trigger: „Webhook“ empfängt aktuellen Suchindex
Filter: Nur fortfahren, wenn {{Suchindex}} > 80
Aktion 1: „Google Ads“ passt Gebot für Schlüsselwörter an
Neues Gebot = Altes Gebot × (1 + (Suchindex - 50)/100)
Aktion 2: „Slack“ sendet Benachrichtigung an den #marketing-Kanal
【Automatische Gebotsanpassung】 Das Gebot für das Schlüsselwort {{Schlüsselwort}} wurde von {{altes Gebot}} auf {{neues Gebot}} angepasst
3-stufiger Filtermechanismus für virale Themen
Stufe 1: Überprüfung der Trendauthentizität
Hauptaufgabe: Falsche Trends und kurzfristiges Rauschen herausfiltern
Überprüfungsdimensionen:
Plattformübergreifende Konsistenz der Trends
- Google Trends wöchentliche Wachstumsrate ≥50%
- Twitter relevante Tweets tägliche Wachstumsrate ≥30%
- Reddit relevante Beiträge neue Beiträge ≥20 Beiträge/Tag
Verbreitung verwandter Suchanfragen
# Erhalte Wachstumsrate verwandter Suchanfragen von Google Trends
related_queries = pytrends.related_queries()
rising_queries = related_queries['rising'].sort_values('value', ascending=False)
if len(rising_queries) < 5: # Mindestens 5 verwandte Suchbegriffe müssen steigen
return False
Beispiel:
Thema „AI-Handyhülle“ vorläufig überprüft:
- Google Trends wöchentliche Steigerung 120%, Twitter tägliche Tweets +45%
- Verwandtes Suchwort „AI-Kühlhandyhülle“ wöchentlicher Suchanstieg 300%
Ergebnis:Bestanden Stufe 1
Stufe 2: Bewertung des kontinuierlichen Potenzials
Hauptalgorithmus:Lebenszyklusphasen-Modell
Bewertungskennzahlen:
Vergleich mit historischen Höchstwerten
current_index = 80 # Aktueller Suchindex
historical_peak = gt_data['AI-Handyhülle'].max()
if current_index < historical_peak * 0.3: # Wenn der aktuelle Index weniger als 30% des historischen Höchstwertes beträgt
return "Abschwungphase"
Gesundheit des verwandten Themas
- Positiver Anteil der verwandten Suchbegriffe (z. B. „Bewertungen“ / „Kauf“) ≥60%
- Negativer Anteil der verwandten Suchbegriffe (z. B. „Nachteile“ / „Beschwerden“) ≤10%
Praktisches Tool:
Verwendung von TextBlob
für die Sentiment-Analyse:
from textblob import TextBlob
sentiment = TextBlob("Die stoßfeste AI-Handyhülle ist großartig!").sentiment.polarity
if sentiment < 0.2: # Negatives Sentiment
return False
Beispiel:
„AI-Handyhülle“ hat einen aktuellen Index von 65% des historischen Höchstwertes, der positive Anteil der verwandten Begriffe beträgt 78%
Ergebnis:„Wachstumsphase“, Stufe 2 bestanden
Stufe 3: Analyse der Umwandlungsfähigkeit
Hauptformel:
Kommerzielle Wertindex = (Suchvolumen der Kaufabsicht-Begriffe × 0.6) + (Interaktionsrate von Bewertungsinhalten × 0.4)
Datensammlung:
Überwachung von Kaufabsicht-Begriffen
buy_keywords = ["Wo kaufen", "Wie viel kostet es", "Rabatt"]
buy_volume = sum([gt_data[keyword] for keyword in buy_keywords])
Interaktionsrate von Bewertungsinhalten
YouTube-Bewertungsvideos „Gefällt mir/Anzahl der Aufrufe“ ≥5%
Xiaohongshu relevante Beiträge „Anzahl der Sammlungen“ ≥500
Automatisierte Entscheidung:
if Kommerzielle Wertindex >= 75:
Starte EC-Werbung + SEO-Strategie
elif Kommerzielle Wertindex >= 50:
Nur Content-Marketing
else:
Thema aufgeben
Beispiel:
- „AI-Handyhülle“ hat eine durchschnittliche tägliche Suchanfrage von 1200 für Kaufabsicht-Begriffe
- YouTube-Bewertungen haben eine durchschnittliche Like-Rate von 7,2%
- Kommerzielle Wertindex = (1200×0.6)+(7.2×0.4) = 72+2.88=74.88 → Starte Content-Marketing
Prozessdiagramm der dreistufigen Filterung
graph TD
A[Themenpool] --> B{Stufe 1: Beliebtheitsprüfung}
B -- Genehmigt --> C{Stufe 2: Langfristiges Potenzial}
B -- Abgelehnt --> D[Archiv]
C -- Genehmigt --> E{Stufe 3: Umwandlungsfähigkeit}
C -- Abgelehnt --> D
E -- Genehmigt --> F[Top-Performer-Ausführung]
E -- Abgelehnt --> G[Beobachtungsarchiv]
SEMrush×GT ROI-Steigerungsstrategie
Dynamsiche Gebotsanpassungsmaschine
Kernlogik: Kombination von SEMrush-Wettbewerbsgebotsdaten und GT-Echtzeit-Suchtrends zur dynamischen Gebotsoptimierung
Vorgehensweise: Daten sammeln
# Holen Sie sich CPC von Wettbewerbern über die SEMrush API (Beispiel)
import requests
semrush_api = "https://api.semrush.com/?key=YOUR_KEY&type=phrase_all&phrase=vr%20glasses"
response = requests.get(semrush_api).text.split("\n")
cpc = float(response[1].split(";")[8]) # CPC-Wert extrahieren
# Holen Sie sich den Echtzeit-Suchindex von GT (Bereich 0–100)
gt_index = pytrends.interest_over_time()['vr glasses'].iloc[-1]
Gebotsformel:
Vorgeschlagenes Gebot = CPC des Wettbewerbers × (GT-Index / 100) × Wettbewerbsfaktor
(Wettbewerbsfaktor: Neuer Markt 1,2, Hart umkämpfter Markt 0,8)
Automatische Synchronisierung mit Google Ads
# Google Ads API verwenden, um Gebote anzupassen (vereinfachte Version)
ads_api.update_keyword_bid(keyword_id=123, new_bid=Vorgeschlagenes_Gebot)
Beispiel: Wenn der GT-Index von “vr glasses” von 40 auf 70 steigt, wird das Gebot von 1,5×(70/100)×1,2 = $1,26 automatisch angepasst → Die tatsächlichen Kosten pro Klick sinken um 16%
Keyword-Angriff- und Verteidigungs-Matrix
Datenfusion-Methoden:
- SEMrush-Analyse: Exportiere die TOP50 Keywords der Wettbewerber mit dem meisten Traffic
- GT-Filterung: Filtere Keywords mit einer monatlichen Wachstumsrate der Suchanfragen > 20%
- Heatmap erstellen(Rote Zone = hoher Wert, hohe Konkurrenz, Blaue Zone = niedriger Wert, niedrige Konkurrenz)
import matplotlib.pyplot as plt
plt.scatter(x=Keyword_Konkurrenz, y=GT_Suchwachstum, c=Keyword_CPC, cmap='RdYlGn')
plt.colorbar(label='CPC($)')
Budget-Neuaufteilung
Algorithmus-Prozess:
- Vorhersagemodell: Verwende historische GT-Daten, um ein ARIMA-Modell zu trainieren, das das Suchvolumen für die nächsten 7 Tage vorhersagt
python
from statsmodels.tsa.arima.model import ARIMA
model = ARIMA(gt_data, order=(3,1,1))
results = model.fit()
forecast = results.forecast(steps=7)
SEMrush-Entscheidungsunterstützung:
- Traffic-Wert-Punkt = (Keyword-Conversion-Rate × Durchschnittspreis) / CPC
- Formel zur Budgetaufteilung:
Tägliche Budget-Aufteilung = (Vorhergesagtes Suchvolumen × Traffic-Wert-Punkt) / Gesamtes Budget
Im Zeitalter der Datenflut verlassen sich immer noch 99% der Unternehmen auf die Trends von gestern, um ihre Strategien für morgen zu bestimmen.
Die in diesem Artikel vorgestellten tiefgehenden GT-Anwendungsprinzipien basieren im Wesentlichen darauf, eine sofortige Konversionskette von “Suchverhalten → Marktbedürfnisse → Geschäftshandlungen” zu schaffen.