आधिकारिक Google Trends के संस्करण से परे丨सीखने के लिए 7 जरूरी Google ट्रेंड्स विश्लेषण गाइड

本文作者:Don jiang

कीवर्ड ट्रेंड का पारंपरिक विश्लेषण तरीका काफी पैसिव होता है — यह सिर्फ पहले से हो चुकी चीज़ों का डेटा दिखाता है, और बिज़नेस के लिए नए मौके खोजने में मदद नहीं करता।

आज मैं जो तरीका शेयर कर रहा हूँ, वो Google Trends से भी ज़्यादा ताक़तवर है: यह समय और क्षेत्र की सीमाओं को पार कर सकता है, और रीयल टाइम में मार्केट को मॉनिटर करने देता है। यह पहले ही 20 से ज़्यादा इंडस्ट्री में यूज़ हो चुका है, और कंपनियों को कॉम्पिटिटर से 14 दिन पहले ही मार्केट बदलाव भाँपने में मदद कर चुका है।

谷歌趋势

Google Trends की API के 3 छुपे हुए ट्रिक जो ऑफिशियल डॉक्स में नहीं मिलते

शहर-स्तर का डेटा निकालना (सिर्फ स्टेट/देश नहीं)

  • समस्या: ऑफिशियल इंटरफेस बस राज्य या देश लेवल तक ही दिखाता है
  • समाधान: API में geo पैरामीटर में सीधे शहर का कोड डालो
python
# उदाहरण: लॉस एंजेलेस (US-CA-803) के लिए "vr glasses" का ट्रेंड डेटा निकालना
import requests
url = "https://trends.google.com/trends/api/widgetdata/multiline?req=%7B%22time%22%3A%222024-01-01%202024-07-01%22%2C%22geo%22%3A%22US-CA-803%22%2C%22keyword%22%3A%22vr%20glasses%22%7D"
response = requests.get(url)
print(response.text[:500])  # पहले 500 कैरेक्टर चेक करने के लिए

नतीजा: इससे आप 3000+ शहरों का सुपर-डिटेल डेटा पा सकते हैं, जैसे Manhattan (US-NY-501) या टोक्यो का सेंट्रल (JP-13-1132)

शहर के geo कोड निकालने के 3 तरीके

तरीका 1: Wikipedia से

Wikipedia पर शहर सर्च करो (जैसे Los Angeles)
राइट साइड में जियोग्राफिक डेटा सेक्शन में जाओ

url
https://zh.wikipedia.org/wiki/洛杉矶
# यहाँ कुछ ऐसा दिखेगा: GNS=1662328

फॉर्मेट होगा: US-CA-1662328 (देश-राज्य-GNS)

तरीका 2: GeoNames डेटाबेस डाउनलोड करना

  • GeoNames साइट पर जाएँ
  • cities15000.zip डाउनलोड करें (15,000+ जनसंख्या वाले शहर)

Excel में खोलें और नाम + देश से फ़िल्टर करें

csv
5368361,Los Angeles,US,CA,34.05223,-118.24368,PPLA2,...
# कॉलम: GeoNameID | नाम | देश | राज्य | लोकेशन...
  • फाइनल फॉर्मेट: US-CA-5368361

तरीका 3: Google Trends में जासूसी

  • Google Trends खोलें
  • F12 दबाकर DevTools खोलें → “Network” टैब में जाएँ
  • शहर का नाम डालें, जैसे “New York”

geo पैरामीटर वाली लाइन ढूंढें:

http
GET /trends/api/explore?geo=US-NY-501&hl=zh-CN
# यहाँ US-NY-501 न्यूयॉर्क को रिप्रेज़ेंट करता है

रीयल टाइम डेटा देखना (हर मिनट अपडेट होता है)

  • समस्या: आमतौर पर डेटा में 4 से 8 घंटे की देरी होती है
  • समाधान: time पैरामीटर में now 1-H डालो — ये पिछले 60 मिनट का डेटा देगा
bash
# टर्मिनल में jq के साथ जल्दी चेक करने का तरीका
curl "https://trends.google.com/trends/api/vizdata?req=%7B%22time%22%3A%22now%201-H%22%2C%22tz%22%3A%22-480%22%7D" | jq '.default.timelineData'

नतीजा: हर मिनट का ट्रेंड इंडेक्स मिलेगा (जैसे 07:45 = 87, 07:46 = 92)

5 साल से पुराने डेटा तक पहुँच पाना

  • समस्या: इंटरफेस बस पिछले 5 साल तक का डेटा दिखाता है
  • समाधान: 2004 से हर साल का डेटा अलग-अलग खींचकर मर्ज कर लो

कैसे करें:

  1. 2004-2005, 2005-2006… इस तरह के हर साल के लिए API कॉल करो
  2. comparisonItem पैरामीटर से एक ही कीवर्ड रखो
  3. अंत में Pandas से सब जोड़ लो
python
# डेटा को मर्ज करने का एक उदाहरण
df_2004_2005 = pd.read_json('2004-2005.json')
df_2005_2006 = pd.read_json('2005-2006.json')
full_data = pd.concat([df_2004_2005, df_2005_2006]).drop_duplicates()

क्रियान्वयन: हर रिक्वेस्ट में headers = {"User-Agent": "Mozilla/5.0"} शामिल होना चाहिए ताकि यह ब्राउज़र एक्सेस की तरह लगे। ब्लॉक होने से बचने के लिए सुझाव है कि प्रति मिनट अधिकतम 3 रिक्वेस्ट ही भेजें।

नोट: इसके लिए आपको Python वातावरण (संभव हो तो वर्जन 3.8 या उससे ऊपर) इंस्टॉल करना होगा, और आपके डेटा फाइल्स JSON फॉर्मेट में होने चाहिए (जैसे 2004-2005.json और 2005-2006.json)।

मशीन लर्निंग + GT डेटा पर आधारित प्रीडिक्शन फ्रेमवर्क

लेटेंसी का पैटर्न

  • दिक्कत: Google Trends में सर्च वॉल्यूम और असली बाजार की डिमांड के बीच टाइम गैप होता है (जैसे कोई “सनस्क्रीन” सर्च करता है, लेकिन खरीदारी 2 हफ्ते बाद करता है)
  • क्या करें: लेग्ड कोरिलेशन एनालिसिस से बेस्ट प्रीडिक्शन विंडो निकालें
python
import pandas as pd
from scipy.stats import pearsonr

# डेटा लोड करें (sales_df = बिक्री डेटा, gt_df = सर्च डेटा)
combined = pd.merge(sales_df, gt_df, on='date')

# 1 से 30 दिन तक के लेग के लिए कोरिलेशन निकालें
correlations = []
for lag in range(1, 31):
    combined['gt_lag'] = combined['search_index'].shift(lag)
    r, _ = pearsonr(combined['sales'].dropna(), combined['gt_lag'].dropna())
    correlations.append(r)

# बेस्ट लेग डेज़ को विज़ुअलाइज़ करें (जहां कोरिलेशन पीक करता है)
pd.Series(correlations).plot(title='लेटेंसी कोरिलेशन एनालिसिस')

अनियमित उतार-चढ़ाव पहचानने का एल्गोरिदम

दिक्कत: पारंपरिक थ्रेशोल्ड अलर्टिंग ग्रेडुअल बदलावों को नहीं पकड़ पाती

तरीका: Z-Score पर आधारित अब्रप्ट चेंज डिटेक्शन

python
def detect_anomaly(series, window=7, threshold=2.5):
    rolling_mean = series.rolling(window).mean()
    rolling_std = series.rolling(window).std()
    z_score = (series - rolling_mean) / rolling_std
    return z_score.abs() > threshold

# इस्तेमाल का उदाहरण (अलर्ट वाले दिन True दिखाएंगे)
gt_df['alert'] = detect_anomaly(gt_df['search_index'])
print(gt_df[gt_df['alert']].index)

कस्टम फ़ोरकास्ट मॉडल (Python में)

मुख्य विचार: सर्च डेटा को बाहरी संकेतों (जैसे मौसम या स्टॉक) के साथ मिलाकर एक मॉडल बनाना।

मॉडल:

# टाइम सीरीज़ वेरिएबल्स बनाना
df['7d_ma'] = df['search_index'].rolling(7).mean()  # 7-दिन की मूविंग एवरेज
df['yoy'] = df['search_index'] / df.shift(365)['search_index']  # साल-दर-साल तुलना

# बाहरी डेटा जोड़ना (जैसे मौसम API से टेम्परेचर)
df['temperature'] = get_weather_data()  

# एक सिंपल फोरकास्ट मॉडल (जैसे लीनियर रिग्रेशन)
from sklearn.linear_model import LinearRegression
model = LinearRegression()
model.fit(df[['7d_ma', 'yoy', 'temperature']], df['sales'])

मॉडल वैलिडेशन और ट्यूनिंग

डेटा स्प्लिट: डेटा को समय के आधार पर 80% ट्रेनिंग और 20% टेस्ट में बांटते हैं।

python
split_idx = int(len(df)*0.8)
train = df.iloc[:split_idx]
test = df.iloc[split_idx:]

इवैल्यूएशन मैट्रिक: एक्यूरेसी की जगह MAE (मीन एब्सोल्यूट एरर) का यूज़ करते हैं।

python
from sklearn.metrics import mean_absolute_error
pred = model.predict(test[features])
print(f'MAE: {mean_absolute_error(test["sales"], pred)}')

ट्यूनिंग टिप्स:

मूविंग एवरेज विंडो को अपने इंडस्ट्री के हिसाब से ट्यून करें (window पैरामीटर)।

Google Trends में रिलेटेड टर्म्स को भी “सर्च इंटेंट” सिग्नल के तौर पर जोड़ सकते हैं।

रियल टाइम कॉम्पिटिटर मॉनिटरिंग: 7 तरीके

तरीका 1: ब्रांड से जुड़ी कीवर्ड एनालिसिस

दिक्कत: यूज़र जब आपकी ब्रांड का नाम सर्च करता है तो कॉम्पिटिटर की साइट ऊपर आ जाती है (जैसे कोई सर्च करे “आपकीब्रांड रिव्यू” और ऊपर कॉम्पिटिटर की साइट दिखे)।

समाधान:

  1. Ahrefs से कॉम्पिटिटर के ब्रांड कीवर्ड एक्सपोर्ट करें
  2. Google Trends API से पॉपुलैरिटी डेटा निकालें
  3. इन कीवर्ड्स का हीटमैप बनाएं ताकि आपको पता चले किन्हें डिफेंड या अटैक करना है (कोड उदाहरण):
python
import seaborn as sns
# उदाहरण डेटा: matrix_data = {"आपकीब्रांड": ["रिव्यू", "ऑफिशियल साइट"], "कॉम्पिटिटरX": ["रिव्यू", "डील"]}
sns.heatmap(matrix_data, annot=True, cmap="YlGnBu")

मैट्रिक 2: उत्पाद फीचर्स की मांग का विश्लेषण

तरीका: Google Trends पर हमारे और प्रतियोगी के मुख्य फीचर्स की सर्च वॉल्यूम की तुलना करना (इकाई: %)
फॉर्मूला:

डिमांड गैप = (हमारी फीचर की सर्च - प्रतियोगी की फीचर सर्च) / कुल सर्च × 100

उदाहरण:

  • अगर लगातार 3 दिन “वॉटरप्रूफ” की मांग 5% या उससे ज्यादा गिरी, तो तुरंत कैंपेन कंटेंट अपडेट करना होगा।

मैट्रिक 3: संकट प्रबंधन की मात्रात्मक मूल्यांकन

इंडिकेटर:

  • नेगेटिव सर्च में कमी = (T दिन की सर्च – T-7 दिन की सर्च) / T-7 दिन की सर्च
  • ब्रांड CTR की रिकवरी = Google Search Console में देखी गई बदलाव

ऑटो स्क्रिप्ट:

python
if नेगेटिव_सर्च_में_कमी > 20% & ctr_रिकवरी > 15%:
    मूल्यांकन = "संकट प्रबंधन सफल"
else:
    फेज 2 रिस्पॉन्स चालू करो

मैट्रिक 4: मूल्य संवेदनशीलता की निगरानी

डेटा स्रोत:

  1. Selenium से प्रतियोगियों की ऑफिशियल वेबसाइट पर प्राइस ट्रैकिंग
  2. Google पर “ब्रांड नाम + प्राइस ड्रॉप” की सर्च ट्रेंड को देखना

रिएक्शन लॉजिक:

अगर कीमत गिरने से सर्च में 50%+ की बढ़ोतरी हो, तो मूल्य रक्षा योजना चालू करो।

मैट्रिक 5: कंटेंट रणनीति का रिवर्स एनालिसिस

डेटा कलेक्शन:

  1. Scrapy से प्रतियोगियों के ब्लॉग/वीडियो टाइटल्स निकाले
  2. फ्रीक्वेंसी एनालिसिस और N-gram मॉडल बनाया

आउटपुट:

python
from sklearn.feature_extraction.text import CountVectorizer
# उदाहरण: प्रतियोगी कंटेंट = ["Top 5 apps", "Complete guide", "Trends 2024"]
vectorizer = CountVectorizer(ngram_range=(2,2))
X = vectorizer.fit_transform(competitor_content)
print(vectorizer.get_feature_names_out())  # उदाहरण: ['top apps', 'complete guide']

मैट्रिक 6: प्रतियोगी के विज्ञापनों की रियल-टाइम ट्रैकिंग

उपकरण:

  1. SpyFu से प्रतियोगी के कीवर्ड निकाले
  2. Pandas से हमारे कीवर्ड्स से तुलना
intersect = len(set(hamare_kw) & set(competitor_kw)) / len(hamare_kw)
print(f"कीवर्ड प्रतिस्पर्धा दर: {intersect:.0%}")

रिस्पॉन्स:

  • अगर इंटरसेक्शन >30%, तो लॉन्ग-टेल कीवर्ड का इस्तेमाल करें

मैट्रिक 7: ट्रैफिक स्रोतों की कमज़ोरी का विश्लेषण

योजना:

  1. SimilarWeb API से प्रतियोगी का ट्रैफिक स्रोत ट्रैक करें
  2. अगर कोई चैनल पर निर्भरता 70% से ज्यादा हो, तो नोट करें

रणनीति:

  • उनके मजबूत चैनल को टारगेट करें (जैसे उनके पसंदीदा फोरम्स में रिव्यू डालना)

सुझाए गए टूल्स:

  • डेटा कलेक्शन: Ahrefs + Python Scraper (proxy रोटेशन के साथ)
  • रियल-टाइम डैशबोर्ड: Grafana + Google Data Studio
  • अलर्ट: अगर ट्रैफिक में एक दिन में >15% बदलाव हो, तो अलर्ट भेजो

अतिरिक्त फॉर्मूला: सोशल मीडिया × सर्च डेटा

Twitter चर्चाएं → सर्च पिक की भविष्यवाणी

फॉर्मूला:

3 दिन बाद सर्च = (आज के tweets / पिछले 3 दिन की औसत) × इंडस्ट्री फैक्टर

स्टेप्स:

  1. Twitter API से ट्वीट्स लें
  2. 3 दिन की औसत निकालें
  3. फैक्टर: टेक = 0.8, ब्यूटी = 1.2, फाइनेंस = 0.5

उदाहरण:

आज: “AI फोन” पर 1200 ट्वीट्स, औसत = 800

= (1200 / 800) × 0.8 = 1.2× = 20% ग्रोथ की संभावना

TikTok ट्रेंड → वायरल होने की भविष्यवाणी

फॉर्मूला:

वायरल स्कोर = (24 घंटे की व्यू ग्रोथ + फॉलोअर्स की मीडियन) × 0.7

स्टेप्स:

  1. TikTok Creative Center से डेटा लो
  2. ग्रोथ = (आज - कल) / कल
  3. टॉप 50 क्रिएटर्स के फॉलोअर्स की मीडियन निकालो

उदाहरण:

#SummerCare टैग: ग्रोथ = +180%, मीडियन = 58000

→ वायरल स्कोर ≈ (180 + 58000) × 0.7 = बहुत अच्छा सिग्नल

Reddit से खरीदारी इंटेंट स्कोर

फॉर्मूला:

इंडेक्स = (लाइक्स × 0.4) + (कॉमेंट्स × 0.2) + (“खरीदना” जैसे शब्द × 10)

स्टेप्स:

  1. Reddit API से पोस्ट डेटा लो
  2. लाइक्स, कमेंट और “कहां से खरीदें” जैसी बातों को गिनो
  3. अगर इंडेक्स >50 हो, तो तुरंत ऐक्शन लो

उदाहरण:

हेडफोन पोस्ट: 1200 लाइक्स, 350 कमेंट, 15 “खरीदना”

स्कोर = 1200×0.4 + 350×0.2 + 15×10 = 480 + 70 + 150 = 700 → स्टॉक बढ़ाओ!

YouTube कमेंट्स → खरीदारी की भविष्यवाणी

फॉर्मूला:

खरीदने की संभावना = (% पॉजिटिव कमेंट्स × 2) + (% सवाल वाले कमेंट्स × 0.5)

स्टेप्स:

  1. YouTube API से 500+ कमेंट लो
  2. TextBlob से एनालिसिस करें
    from textblob import TextBlob
    comment = "कैमरा शानदार है! इसे कहां से खरीदूं?"
    polarity = TextBlob(comment).sentiment.polarity  # नतीजा: 0.8 (पॉजिटिव)
  3. 0.3 से ज्यादा का polarity = पॉजिटिव, “?” हो तो सवाल माना जाए

उदाहरण

60% सकारात्मक टिप्पणियाँ, 25% समस्याग्रस्त टिप्पणियाँ

खरीदने की इच्छा = (60%×2)+(25%×0.5)=120%+12.5%=132.5% → विज्ञापन बोली बढ़ाएँ

Zapier+GT रियल-टाइम मॉनिटरिंग फ्लो

बेसिक मॉनिटरिंग फ्लो

परिदृश्य:अगर किसी कीवर्ड की सर्च वॉल्यूम एक दिन में 150% से ज्यादा बढ़े, तो टीम को तुरंत ईमेल से सूचित करें
कॉन्फ़िगरेशन स्टेप्स

Zapier ट्रिगर सेटिंग

“Webhook by Zapier” को ट्रिगर के रूप में चुनें

Catch Hook मोड सेट करें और जनरेट हुई Webhook URL कॉपी करें (उदाहरण:https://hooks.zapier.com/hooks/12345)

Python स्क्रिप्ट डिप्लॉय करें​(Google Cloud Functions)

import requests
from pytrends.request import TrendReq

def fetch_gt_data(request):
    pytrends = TrendReq()
    pytrends.build_payload(kw_list=["मेटावर्स"], timeframe='now 1-d')
    data = pytrends.interest_over_time()
    
    # दिन-प्रतिदिन वृद्धि की गणना
    today = data.iloc[-1]['मेटावर्स']
    yesterday = data.iloc[-2]['मेटावर्स']
    growth_rate = (today - yesterday)/yesterday * 100
    
    # Zapier ट्रिगर करें
    if growth_rate > 150:
        requests.post(
            "आपकी Webhook URL",
            json={"keyword": "मेटावर्स", "growth": f"{growth_rate:.1f}%"}
        )
    return "OK"

Zapier एक्शन सेटिंग

“Gmail” एक्शन जोड़ें: जब Webhook डेटा मिले, तो अलर्ट ईमेल भेजें

ईमेल टेम्पलेट वेरिएबल: {{keyword}} सर्च वॉल्यूम में {{growth}} की बढ़ोतरी, तुरंत चेक करें → Google Trends लिंक

स्वचालित साप्ताहिक ट्रेंड रिपोर्ट

फ्लो आर्किटेक्चर: Google Trends API → Google Sheets → Zapier → ChatGPT → Notion

कॉन्फ़िगरेशन स्टेप्स

डेटा शीट में सिंक करें

हर घंटे Google Apps Script के ज़रिए GT डेटा को Google Sheets टेम्पलेट में खींचें

मुख्य फ़ील्ड्स: कीवर्ड, साप्ताहिक खोज वॉल्यूम, सालाना बदलाव, संबंधित खोजें

Zapier ट्रिगर कंडीशन

“Schedule by Zapier” को चुनें ताकि हर शुक्रवार 15:00 बजे ट्रिगर हो

एक्शन 1: “Google Sheets” से लेटेस्ट डेटा रो प्राप्त करें

एक्शन 2: “OpenAI” से रिपोर्ट जनरेट कराएँ

आप एक अनुभवी मार्केट एनालिस्ट हैं, निम्नलिखित डेटा के आधार पर एक साप्ताहिक रिपोर्ट तैयार करें:
शीर्ष 3 कीवर्ड्स: {{शीर्ष 3 कीवर्ड्स}}  
सबसे तेजी से बढ़ता कीवर्ड: {{सबसे तेज़ बढ़त वाला कीवर्ड}} ({{वृद्धि दर}})
ध्यान देने योग्य संबंधित खोजें: {{संबंधित क्वेरीज़}}

Notion में ऑटोमैटिक रूप से सेव करें

Notion” एक्शन का उपयोग कर एक नया पेज बनाएं

डायनामिक फ़ील्ड्स जोड़ें: {{AI विश्लेषण सामग्री}} + ट्रेंड ग्राफ़ स्क्रीनशॉट (जो QuickChart से बना हो)

विज्ञापन बजट का डायनामिक एडजस्टमेंट

पूरी तरह ऑटोमेटेड फ्लो: GT डेटा → Zapier → Google Ads API → Slack अलर्ट

विस्तृत कॉन्फ़िगरेशन

रीयल-टाइम डेटा पाइपलाइन

  • हर मिनट एक Python स्क्रिप्ट Google Trends की now 1-H API को कॉल करती है
# सरल कोड (cron के ज़रिए रन किया जा सकता है)
current_index = requests.get("Google Trends रीयल-टाइम API").json()['default']
if current_index > threshold:
    adjust_budget(current_index)  # Google Ads API को कॉल करें

Zapier के ज़रिए इंटरमीडिएट सेटअप

ट्रिगर: “Webhook” मौजूदा ट्रेंड इंडेक्स प्राप्त करता है

फ़िल्टर: सिर्फ़ तब जारी रखें अगर {{इंडेक्स}} > 80

एक्शन 1: “Google Ads” कीवर्ड की बोली एडजस्ट करता है

new_bid = old_bid × (1 + (इंडेक्स - 50)/100)

एक्शन 2: “Slack” #marketing चैनल में अलर्ट भेजता है

【ऑटो अपडेट】कीवर्ड {{कीवर्ड}} की बोली {{old_bid}} से {{new_bid}} में बदली गई है

3-चरणीय ट्रेंड फ़िल्टर

चरण 1: प्रामाणिकता जांच

उद्देश्य: नकली या अस्थायी ट्रेंड्स को हटाना

वैलिडेशन मानदंड

विभिन्न प्लेटफ़ॉर्म्स पर लगातार वृद्धि

  • Google Trends पर एक सप्ताह में 50% से ज़्यादा बढ़ोतरी
  • संबंधित ट्वीट्स में कम से कम 30% की बढ़ोतरी
  • Reddit पर दिन में 20+ पोस्ट

संबंधित सर्चेस में ग्रोथ

python
# बढ़ रहे संबंधित सर्चेस की जांच करें
related_queries = pytrends.related_queries()
rising_queries = related_queries['rising'].sort_values('value', ascending=False)
if len(rising_queries) < 5:
    return False

उदाहरण

“AI फ़ोन केस” वाले टॉपिक ने वेलिडेशन पास किया:

  • GT में 120% की वृद्धि, tweets में +45%
  • संबंधित शब्द “AI कूलिंग केस” +300%

परिणाम: चरण 1 पास हुआ

चरण 2: टिकाऊपन जांच

पद्धति: ट्रेंड का जीवन चक्र

मुख्य मीट्रिक्स

इतिहास के पीक से तुलना

python
current_index = 80
historical_peak = gt_data['AI केस'].max()
if current_index < historical_peak * 0.3:
    return "ट्रेंड डाउन हो रहा है"

संबंधित शब्दों की हेल्थ

  • पॉजिटिव शब्द (“रिव्यू” / “खरीदना”) ≥ 60%
  • नेगेटिव शब्द (“शिकायत” / “गड़बड़”) ≤ 10%

टूल

TextBlob के साथ सेंटिमेंट एनालिसिस:

python
from textblob import TextBlob
sentiment = TextBlob("AI केस गिरने से बचाता है, बेस्ट!").sentiment.polarity
if sentiment < 0.2:
    return False

उदाहरण

“AI केस” इंडेक्स = पीक का 65%, पॉजिटिव शब्द 78%

परिणाम: ट्रेंड ग्रो कर रहा है, चरण 2 पास

चरण 3: व्यावसायिक क्षमता का मूल्यांकन

बेस फॉर्मूला

कॉमर्शियल इंडेक्स = (इंटेंट सर्च वॉल्यूम × 0.6) + (रिव्यू एंगेजमेंट × 0.4)

डेटा कलेक्शन

खरीदारी इरादे वाली सर्चेस की निगरानी

python
buy_keywords = ["कहां खरीदें", "कीमत", "डिस्काउंट"]
buy_volume = sum([gt_data[keyword] for keyword in buy_keywords])

रिव्यू एंगेजमेंट

YouTube: लाइक्स / व्यूज़ ≥ 5%

Xiaohongshu: ≥ 500 फेवरेट्स

स्वचालित निर्णय

python
if commercial_score >= 75:
    ई-कॉमर्स + SEO कैंपेन चालू करें
elif commercial_score >= 50:
    सिर्फ कंटेंट मार्केटिंग करें
else:
    टॉपिक ड्रॉप कर दें

उदाहरण

  • “AI केस” की इंटेंट सर्च वॉल्यूम = 1200/दिन
  • वीडियो रिव्यू लाइक रेट = 7.2%
  • कॉमर्शियल इंडेक्स = (1200×0.6)+(7.2×0.4)=72+2.88=74.88 → कंटेंट मार्केटिंग शुरू करें

तीन-चरणीय फ़िल्टरिंग प्रक्रिया

graph TD
    A[विषयों का डेटाबेस] --> B{चरण 1: लोकप्रियता जांच}
    B -- पास --> C{चरण 2: दीर्घकालिक क्षमता}
    B -- फेल --> D[आर्काइव]
    C -- पास --> E{चरण 3: रूपांतरण क्षमता}
    C -- फेल --> D
    E -- पास --> F[मुख्य कंटेंट]
    E -- फेल --> G[ऑब्ज़र्वेशन]

SEMrush × Google Trends अनुकूलन रणनीति

बोली समायोजन के लिए डायनामिक सिस्टम

मुख्य लॉजिक: SEMrush के CPC डेटा और Google Trends के मौजूदा ट्रेंड इंडेक्स को मिलाकर बिड को ऑटोमैटिकली एडजस्ट करना।

चरण 1: डेटा संग्रह

python
# SEMrush API से CPC प्राप्त करना (उदाहरण)
import requests
semrush_api = "https://api.semrush.com/?key=YOUR_KEY&type=phrase_all&phrase=vr%20glasses"
response = requests.get(semrush_api).text.split("\n")
cpc = float(response[1].split(";")[8])  # CPC एक्सट्रैक्ट करना

# Google Trends से रियल-टाइम इंडेक्स प्राप्त करना (0 से 100 तक)
gt_index = pytrends.interest_over_time()['vr glasses'].iloc[-1]

बोली समायोजन सूत्र:

सुझाई गई बोली = CPC × (Google Trends इंडेक्स / 100) × मार्केट फैक्टर  
(फैक्टर: उभरता हुआ बाजार = 1.2; प्रतिस्पर्धी बाजार = 0.8)

Google Ads के साथ रियल टाइम सिंक्रोनाइज़ेशन

python
# Google Ads API से बिड अपडेट करना (उदाहरण)
ads_api.update_keyword_bid(keyword_id=123, new_bid=सुझाई_गई_बोली)

उदाहरण: अगर “vr glasses” का GT इंडेक्स 40 से बढ़कर 70 हो जाता है, तो नई बोली होगी:
1.5 × (70/100) × 1.2 = ₹1.26 → प्रभावी CPC में 16% की कमी

कीवर्ड रणनीति: आक्रमण और बचाव

स्टेप्स:

  1. SEMrush: प्रतियोगियों के टॉप 50 ट्रैफिक वाले कीवर्ड्स खोजें
  2. Google Trends: उन कीवर्ड्स को चुनें जिनका मासिक ग्रोथ > 20% है
  3. हीटमैप: लाल = उच्च मूल्य + उच्च प्रतिस्पर्धा; नीला = कम मूल्य + कम प्रतिस्पर्धा
python
import matplotlib.pyplot as plt
plt.scatter(x=प्रतिस्पर्धा, y=gt_ग्रोथ, c=cpc_कीवर्ड, cmap='RdYlGn')
plt.colorbar(label='CPC (₹)')

बजट का डायनामिक आवंटन

कैसे करें:

  1. फोरकास्टिंग: पिछले GT डेटा से ARIMA मॉडल को ट्रेन करें, ताकि अगले 7 दिनों के सर्च वॉल्यूम का पूर्वानुमान लगाया जा सके
python
from statsmodels.tsa.arima.model import ARIMA
model = ARIMA(gt_डेटा, order=(3,1,1))
results = model.fit()
forecast = results.forecast(steps=7)

SEMrush-आधारित बजट अलोकेशन:

  • कीवर्ड वैल्यू = (कन्वर्जन रेट × औसत ऑर्डर वैल्यू) ÷ CPC
  • सूत्र:
दैनिक बजट = (पूर्वानुमानित वॉल्यूम × कीवर्ड वैल्यू) ÷ कुल बजट

डेटा के इस युग में, 99% कंपनियाँ अभी भी बीते कल के ट्रेंड्स से भविष्य की योजना बनाती हैं।

Google Trends की ताकत भविष्य को “भविष्यवाणी” करने में नहीं है — बल्कि “सर्च इंटेंट” और “बिजनेस एक्शन” के बीच की दूरी को घटाने में है।

Picture of Don Jiang
Don Jiang

SEO本质是资源竞争,为搜索引擎用户提供实用性价值,关注我,带您上顶楼看透谷歌排名的底层算法。

最新解读