कीवर्ड ट्रेंड का पारंपरिक विश्लेषण तरीका काफी पैसिव होता है — यह सिर्फ पहले से हो चुकी चीज़ों का डेटा दिखाता है, और बिज़नेस के लिए नए मौके खोजने में मदद नहीं करता।
आज मैं जो तरीका शेयर कर रहा हूँ, वो Google Trends से भी ज़्यादा ताक़तवर है: यह समय और क्षेत्र की सीमाओं को पार कर सकता है, और रीयल टाइम में मार्केट को मॉनिटर करने देता है। यह पहले ही 20 से ज़्यादा इंडस्ट्री में यूज़ हो चुका है, और कंपनियों को कॉम्पिटिटर से 14 दिन पहले ही मार्केट बदलाव भाँपने में मदद कर चुका है।
Google Trends की API के 3 छुपे हुए ट्रिक जो ऑफिशियल डॉक्स में नहीं मिलते
शहर-स्तर का डेटा निकालना (सिर्फ स्टेट/देश नहीं)
- समस्या: ऑफिशियल इंटरफेस बस राज्य या देश लेवल तक ही दिखाता है
- समाधान: API में
geo
पैरामीटर में सीधे शहर का कोड डालो
# उदाहरण: लॉस एंजेलेस (US-CA-803) के लिए "vr glasses" का ट्रेंड डेटा निकालना
import requests
url = "https://trends.google.com/trends/api/widgetdata/multiline?req=%7B%22time%22%3A%222024-01-01%202024-07-01%22%2C%22geo%22%3A%22US-CA-803%22%2C%22keyword%22%3A%22vr%20glasses%22%7D"
response = requests.get(url)
print(response.text[:500]) # पहले 500 कैरेक्टर चेक करने के लिए
नतीजा: इससे आप 3000+ शहरों का सुपर-डिटेल डेटा पा सकते हैं, जैसे Manhattan (US-NY-501) या टोक्यो का सेंट्रल (JP-13-1132)
शहर के geo कोड निकालने के 3 तरीके
तरीका 1: Wikipedia से
Wikipedia पर शहर सर्च करो (जैसे Los Angeles)
राइट साइड में जियोग्राफिक डेटा सेक्शन में जाओ
https://zh.wikipedia.org/wiki/洛杉矶
# यहाँ कुछ ऐसा दिखेगा: GNS=1662328
फॉर्मेट होगा: US-CA-1662328
(देश-राज्य-GNS)
तरीका 2: GeoNames डेटाबेस डाउनलोड करना
- GeoNames साइट पर जाएँ
cities15000.zip
डाउनलोड करें (15,000+ जनसंख्या वाले शहर)
Excel में खोलें और नाम + देश से फ़िल्टर करें
5368361,Los Angeles,US,CA,34.05223,-118.24368,PPLA2,...
# कॉलम: GeoNameID | नाम | देश | राज्य | लोकेशन...
- फाइनल फॉर्मेट:
US-CA-5368361
तरीका 3: Google Trends में जासूसी
- Google Trends खोलें
- F12 दबाकर DevTools खोलें → “Network” टैब में जाएँ
- शहर का नाम डालें, जैसे “New York”
geo
पैरामीटर वाली लाइन ढूंढें:
GET /trends/api/explore?geo=US-NY-501&hl=zh-CN
# यहाँ US-NY-501 न्यूयॉर्क को रिप्रेज़ेंट करता है
रीयल टाइम डेटा देखना (हर मिनट अपडेट होता है)
- समस्या: आमतौर पर डेटा में 4 से 8 घंटे की देरी होती है
- समाधान:
time
पैरामीटर मेंnow 1-H
डालो — ये पिछले 60 मिनट का डेटा देगा
# टर्मिनल में jq के साथ जल्दी चेक करने का तरीका
curl "https://trends.google.com/trends/api/vizdata?req=%7B%22time%22%3A%22now%201-H%22%2C%22tz%22%3A%22-480%22%7D" | jq '.default.timelineData'
नतीजा: हर मिनट का ट्रेंड इंडेक्स मिलेगा (जैसे 07:45 = 87, 07:46 = 92)
5 साल से पुराने डेटा तक पहुँच पाना
- समस्या: इंटरफेस बस पिछले 5 साल तक का डेटा दिखाता है
- समाधान: 2004 से हर साल का डेटा अलग-अलग खींचकर मर्ज कर लो
कैसे करें:
- 2004-2005, 2005-2006… इस तरह के हर साल के लिए API कॉल करो
comparisonItem
पैरामीटर से एक ही कीवर्ड रखो- अंत में Pandas से सब जोड़ लो
# डेटा को मर्ज करने का एक उदाहरण
df_2004_2005 = pd.read_json('2004-2005.json')
df_2005_2006 = pd.read_json('2005-2006.json')
full_data = pd.concat([df_2004_2005, df_2005_2006]).drop_duplicates()
क्रियान्वयन: हर रिक्वेस्ट में headers = {"User-Agent": "Mozilla/5.0"}
शामिल होना चाहिए ताकि यह ब्राउज़र एक्सेस की तरह लगे। ब्लॉक होने से बचने के लिए सुझाव है कि प्रति मिनट अधिकतम 3 रिक्वेस्ट ही भेजें।
नोट: इसके लिए आपको Python वातावरण (संभव हो तो वर्जन 3.8 या उससे ऊपर) इंस्टॉल करना होगा, और आपके डेटा फाइल्स JSON फॉर्मेट में होने चाहिए (जैसे 2004-2005.json
और 2005-2006.json
)।
मशीन लर्निंग + GT डेटा पर आधारित प्रीडिक्शन फ्रेमवर्क
लेटेंसी का पैटर्न
- दिक्कत: Google Trends में सर्च वॉल्यूम और असली बाजार की डिमांड के बीच टाइम गैप होता है (जैसे कोई “सनस्क्रीन” सर्च करता है, लेकिन खरीदारी 2 हफ्ते बाद करता है)
- क्या करें: लेग्ड कोरिलेशन एनालिसिस से बेस्ट प्रीडिक्शन विंडो निकालें
import pandas as pd
from scipy.stats import pearsonr
# डेटा लोड करें (sales_df = बिक्री डेटा, gt_df = सर्च डेटा)
combined = pd.merge(sales_df, gt_df, on='date')
# 1 से 30 दिन तक के लेग के लिए कोरिलेशन निकालें
correlations = []
for lag in range(1, 31):
combined['gt_lag'] = combined['search_index'].shift(lag)
r, _ = pearsonr(combined['sales'].dropna(), combined['gt_lag'].dropna())
correlations.append(r)
# बेस्ट लेग डेज़ को विज़ुअलाइज़ करें (जहां कोरिलेशन पीक करता है)
pd.Series(correlations).plot(title='लेटेंसी कोरिलेशन एनालिसिस')
अनियमित उतार-चढ़ाव पहचानने का एल्गोरिदम
दिक्कत: पारंपरिक थ्रेशोल्ड अलर्टिंग ग्रेडुअल बदलावों को नहीं पकड़ पाती
तरीका: Z-Score पर आधारित अब्रप्ट चेंज डिटेक्शन
def detect_anomaly(series, window=7, threshold=2.5):
rolling_mean = series.rolling(window).mean()
rolling_std = series.rolling(window).std()
z_score = (series - rolling_mean) / rolling_std
return z_score.abs() > threshold
# इस्तेमाल का उदाहरण (अलर्ट वाले दिन True दिखाएंगे)
gt_df['alert'] = detect_anomaly(gt_df['search_index'])
print(gt_df[gt_df['alert']].index)
कस्टम फ़ोरकास्ट मॉडल (Python में)
मुख्य विचार: सर्च डेटा को बाहरी संकेतों (जैसे मौसम या स्टॉक) के साथ मिलाकर एक मॉडल बनाना।
मॉडल:
# टाइम सीरीज़ वेरिएबल्स बनाना
df['7d_ma'] = df['search_index'].rolling(7).mean() # 7-दिन की मूविंग एवरेज
df['yoy'] = df['search_index'] / df.shift(365)['search_index'] # साल-दर-साल तुलना
# बाहरी डेटा जोड़ना (जैसे मौसम API से टेम्परेचर)
df['temperature'] = get_weather_data()
# एक सिंपल फोरकास्ट मॉडल (जैसे लीनियर रिग्रेशन)
from sklearn.linear_model import LinearRegression
model = LinearRegression()
model.fit(df[['7d_ma', 'yoy', 'temperature']], df['sales'])
मॉडल वैलिडेशन और ट्यूनिंग
डेटा स्प्लिट: डेटा को समय के आधार पर 80% ट्रेनिंग और 20% टेस्ट में बांटते हैं।
split_idx = int(len(df)*0.8)
train = df.iloc[:split_idx]
test = df.iloc[split_idx:]
इवैल्यूएशन मैट्रिक: एक्यूरेसी की जगह MAE (मीन एब्सोल्यूट एरर) का यूज़ करते हैं।
from sklearn.metrics import mean_absolute_error
pred = model.predict(test[features])
print(f'MAE: {mean_absolute_error(test["sales"], pred)}')
ट्यूनिंग टिप्स:
मूविंग एवरेज विंडो को अपने इंडस्ट्री के हिसाब से ट्यून करें (window
पैरामीटर)।
Google Trends में रिलेटेड टर्म्स को भी “सर्च इंटेंट” सिग्नल के तौर पर जोड़ सकते हैं।
रियल टाइम कॉम्पिटिटर मॉनिटरिंग: 7 तरीके
तरीका 1: ब्रांड से जुड़ी कीवर्ड एनालिसिस
दिक्कत: यूज़र जब आपकी ब्रांड का नाम सर्च करता है तो कॉम्पिटिटर की साइट ऊपर आ जाती है (जैसे कोई सर्च करे “आपकीब्रांड रिव्यू” और ऊपर कॉम्पिटिटर की साइट दिखे)।
समाधान:
Ahrefs
से कॉम्पिटिटर के ब्रांड कीवर्ड एक्सपोर्ट करेंGoogle Trends API
से पॉपुलैरिटी डेटा निकालें- इन कीवर्ड्स का हीटमैप बनाएं ताकि आपको पता चले किन्हें डिफेंड या अटैक करना है (कोड उदाहरण):
import seaborn as sns
# उदाहरण डेटा: matrix_data = {"आपकीब्रांड": ["रिव्यू", "ऑफिशियल साइट"], "कॉम्पिटिटरX": ["रिव्यू", "डील"]}
sns.heatmap(matrix_data, annot=True, cmap="YlGnBu")
मैट्रिक 2: उत्पाद फीचर्स की मांग का विश्लेषण
तरीका: Google Trends पर हमारे और प्रतियोगी के मुख्य फीचर्स की सर्च वॉल्यूम की तुलना करना (इकाई: %)
फॉर्मूला:
डिमांड गैप = (हमारी फीचर की सर्च - प्रतियोगी की फीचर सर्च) / कुल सर्च × 100
उदाहरण:
- अगर लगातार 3 दिन “वॉटरप्रूफ” की मांग 5% या उससे ज्यादा गिरी, तो तुरंत कैंपेन कंटेंट अपडेट करना होगा।
मैट्रिक 3: संकट प्रबंधन की मात्रात्मक मूल्यांकन
इंडिकेटर:
- नेगेटिव सर्च में कमी = (T दिन की सर्च – T-7 दिन की सर्च) / T-7 दिन की सर्च
- ब्रांड CTR की रिकवरी =
Google Search Console
में देखी गई बदलाव
ऑटो स्क्रिप्ट:
if नेगेटिव_सर्च_में_कमी > 20% & ctr_रिकवरी > 15%:
मूल्यांकन = "संकट प्रबंधन सफल"
else:
फेज 2 रिस्पॉन्स चालू करो
मैट्रिक 4: मूल्य संवेदनशीलता की निगरानी
डेटा स्रोत:
Selenium
से प्रतियोगियों की ऑफिशियल वेबसाइट पर प्राइस ट्रैकिंग- Google पर “ब्रांड नाम + प्राइस ड्रॉप” की सर्च ट्रेंड को देखना
रिएक्शन लॉजिक:
अगर कीमत गिरने से सर्च में 50%+ की बढ़ोतरी हो, तो मूल्य रक्षा योजना चालू करो।
मैट्रिक 5: कंटेंट रणनीति का रिवर्स एनालिसिस
डेटा कलेक्शन:
Scrapy
से प्रतियोगियों के ब्लॉग/वीडियो टाइटल्स निकाले- फ्रीक्वेंसी एनालिसिस और N-gram मॉडल बनाया
आउटपुट:
from sklearn.feature_extraction.text import CountVectorizer
# उदाहरण: प्रतियोगी कंटेंट = ["Top 5 apps", "Complete guide", "Trends 2024"]
vectorizer = CountVectorizer(ngram_range=(2,2))
X = vectorizer.fit_transform(competitor_content)
print(vectorizer.get_feature_names_out()) # उदाहरण: ['top apps', 'complete guide']
मैट्रिक 6: प्रतियोगी के विज्ञापनों की रियल-टाइम ट्रैकिंग
उपकरण:
SpyFu
से प्रतियोगी के कीवर्ड निकालेPandas
से हमारे कीवर्ड्स से तुलना
intersect = len(set(hamare_kw) & set(competitor_kw)) / len(hamare_kw)
print(f"कीवर्ड प्रतिस्पर्धा दर: {intersect:.0%}")
रिस्पॉन्स:
- अगर इंटरसेक्शन >30%, तो लॉन्ग-टेल कीवर्ड का इस्तेमाल करें
मैट्रिक 7: ट्रैफिक स्रोतों की कमज़ोरी का विश्लेषण
योजना:
SimilarWeb API
से प्रतियोगी का ट्रैफिक स्रोत ट्रैक करें- अगर कोई चैनल पर निर्भरता 70% से ज्यादा हो, तो नोट करें
रणनीति:
- उनके मजबूत चैनल को टारगेट करें (जैसे उनके पसंदीदा फोरम्स में रिव्यू डालना)
सुझाए गए टूल्स:
- डेटा कलेक्शन: Ahrefs + Python Scraper (proxy रोटेशन के साथ)
- रियल-टाइम डैशबोर्ड: Grafana + Google Data Studio
- अलर्ट: अगर ट्रैफिक में एक दिन में >15% बदलाव हो, तो अलर्ट भेजो
अतिरिक्त फॉर्मूला: सोशल मीडिया × सर्च डेटा
Twitter चर्चाएं → सर्च पिक की भविष्यवाणी
फॉर्मूला:
3 दिन बाद सर्च = (आज के tweets / पिछले 3 दिन की औसत) × इंडस्ट्री फैक्टर
स्टेप्स:
Twitter API
से ट्वीट्स लें- 3 दिन की औसत निकालें
- फैक्टर: टेक = 0.8, ब्यूटी = 1.2, फाइनेंस = 0.5
उदाहरण:
आज: “AI फोन” पर 1200 ट्वीट्स, औसत = 800
= (1200 / 800) × 0.8 = 1.2× = 20% ग्रोथ की संभावना
TikTok ट्रेंड → वायरल होने की भविष्यवाणी
फॉर्मूला:
वायरल स्कोर = (24 घंटे की व्यू ग्रोथ + फॉलोअर्स की मीडियन) × 0.7
स्टेप्स:
TikTok Creative Center
से डेटा लो- ग्रोथ =
(आज - कल) / कल
- टॉप 50 क्रिएटर्स के फॉलोअर्स की मीडियन निकालो
उदाहरण:
#SummerCare टैग: ग्रोथ = +180%, मीडियन = 58000
→ वायरल स्कोर ≈ (180 + 58000) × 0.7 = बहुत अच्छा सिग्नल
Reddit से खरीदारी इंटेंट स्कोर
फॉर्मूला:
इंडेक्स = (लाइक्स × 0.4) + (कॉमेंट्स × 0.2) + (“खरीदना” जैसे शब्द × 10)
स्टेप्स:
Reddit API
से पोस्ट डेटा लो- लाइक्स, कमेंट और “कहां से खरीदें” जैसी बातों को गिनो
- अगर इंडेक्स >50 हो, तो तुरंत ऐक्शन लो
उदाहरण:
हेडफोन पोस्ट: 1200 लाइक्स, 350 कमेंट, 15 “खरीदना”
स्कोर = 1200×0.4 + 350×0.2 + 15×10 = 480 + 70 + 150 = 700 → स्टॉक बढ़ाओ!
YouTube कमेंट्स → खरीदारी की भविष्यवाणी
फॉर्मूला:
खरीदने की संभावना = (% पॉजिटिव कमेंट्स × 2) + (% सवाल वाले कमेंट्स × 0.5)
स्टेप्स:
YouTube API
से 500+ कमेंट लोTextBlob
से एनालिसिस करेंfrom textblob import TextBlob comment = "कैमरा शानदार है! इसे कहां से खरीदूं?" polarity = TextBlob(comment).sentiment.polarity # नतीजा: 0.8 (पॉजिटिव)
- 0.3 से ज्यादा का polarity = पॉजिटिव, “?” हो तो सवाल माना जाए
उदाहरण:
60% सकारात्मक टिप्पणियाँ, 25% समस्याग्रस्त टिप्पणियाँ
खरीदने की इच्छा = (60%×2)+(25%×0.5)=120%+12.5%=132.5% → विज्ञापन बोली बढ़ाएँ
Zapier+GT रियल-टाइम मॉनिटरिंग फ्लो
बेसिक मॉनिटरिंग फ्लो
परिदृश्य:अगर किसी कीवर्ड की सर्च वॉल्यूम एक दिन में 150% से ज्यादा बढ़े, तो टीम को तुरंत ईमेल से सूचित करें
कॉन्फ़िगरेशन स्टेप्स:
Zapier ट्रिगर सेटिंग
“Webhook by Zapier” को ट्रिगर के रूप में चुनें
Catch Hook
मोड सेट करें और जनरेट हुई Webhook URL कॉपी करें (उदाहरण:https://hooks.zapier.com/hooks/12345
)
Python स्क्रिप्ट डिप्लॉय करें(Google Cloud Functions)
import requests
from pytrends.request import TrendReq
def fetch_gt_data(request):
pytrends = TrendReq()
pytrends.build_payload(kw_list=["मेटावर्स"], timeframe='now 1-d')
data = pytrends.interest_over_time()
# दिन-प्रतिदिन वृद्धि की गणना
today = data.iloc[-1]['मेटावर्स']
yesterday = data.iloc[-2]['मेटावर्स']
growth_rate = (today - yesterday)/yesterday * 100
# Zapier ट्रिगर करें
if growth_rate > 150:
requests.post(
"आपकी Webhook URL",
json={"keyword": "मेटावर्स", "growth": f"{growth_rate:.1f}%"}
)
return "OK"
Zapier एक्शन सेटिंग
“Gmail” एक्शन जोड़ें: जब Webhook डेटा मिले, तो अलर्ट ईमेल भेजें
ईमेल टेम्पलेट वेरिएबल: {{keyword}}
सर्च वॉल्यूम में {{growth}}
की बढ़ोतरी, तुरंत चेक करें → Google Trends लिंक
स्वचालित साप्ताहिक ट्रेंड रिपोर्ट
फ्लो आर्किटेक्चर: Google Trends API → Google Sheets → Zapier → ChatGPT → Notion
कॉन्फ़िगरेशन स्टेप्स:
डेटा शीट में सिंक करें
हर घंटे Google Apps Script
के ज़रिए GT डेटा को Google Sheets टेम्पलेट में खींचें
मुख्य फ़ील्ड्स: कीवर्ड, साप्ताहिक खोज वॉल्यूम, सालाना बदलाव, संबंधित खोजें
Zapier ट्रिगर कंडीशन
“Schedule by Zapier” को चुनें ताकि हर शुक्रवार 15:00 बजे ट्रिगर हो
एक्शन 1: “Google Sheets” से लेटेस्ट डेटा रो प्राप्त करें
एक्शन 2: “OpenAI” से रिपोर्ट जनरेट कराएँ
आप एक अनुभवी मार्केट एनालिस्ट हैं, निम्नलिखित डेटा के आधार पर एक साप्ताहिक रिपोर्ट तैयार करें:
शीर्ष 3 कीवर्ड्स: {{शीर्ष 3 कीवर्ड्स}}
सबसे तेजी से बढ़ता कीवर्ड: {{सबसे तेज़ बढ़त वाला कीवर्ड}} ({{वृद्धि दर}})
ध्यान देने योग्य संबंधित खोजें: {{संबंधित क्वेरीज़}}
Notion में ऑटोमैटिक रूप से सेव करें
“Notion” एक्शन का उपयोग कर एक नया पेज बनाएं
डायनामिक फ़ील्ड्स जोड़ें: {{AI विश्लेषण सामग्री}}
+ ट्रेंड ग्राफ़ स्क्रीनशॉट (जो QuickChart
से बना हो)
विज्ञापन बजट का डायनामिक एडजस्टमेंट
पूरी तरह ऑटोमेटेड फ्लो: GT डेटा → Zapier → Google Ads API → Slack अलर्ट
विस्तृत कॉन्फ़िगरेशन:
रीयल-टाइम डेटा पाइपलाइन
- हर मिनट एक
Python
स्क्रिप्ट Google Trends कीnow 1-H
API को कॉल करती है
# सरल कोड (cron के ज़रिए रन किया जा सकता है)
current_index = requests.get("Google Trends रीयल-टाइम API").json()['default']
if current_index > threshold:
adjust_budget(current_index) # Google Ads API को कॉल करें
Zapier के ज़रिए इंटरमीडिएट सेटअप
ट्रिगर: “Webhook” मौजूदा ट्रेंड इंडेक्स प्राप्त करता है
फ़िल्टर: सिर्फ़ तब जारी रखें अगर {{इंडेक्स}} > 80
एक्शन 1: “Google Ads” कीवर्ड की बोली एडजस्ट करता है
new_bid = old_bid × (1 + (इंडेक्स - 50)/100)
एक्शन 2: “Slack” #marketing चैनल में अलर्ट भेजता है
【ऑटो अपडेट】कीवर्ड {{कीवर्ड}} की बोली {{old_bid}} से {{new_bid}} में बदली गई है
3-चरणीय ट्रेंड फ़िल्टर
चरण 1: प्रामाणिकता जांच
उद्देश्य: नकली या अस्थायी ट्रेंड्स को हटाना
वैलिडेशन मानदंड:
विभिन्न प्लेटफ़ॉर्म्स पर लगातार वृद्धि
- Google Trends पर एक सप्ताह में 50% से ज़्यादा बढ़ोतरी
- संबंधित ट्वीट्स में कम से कम 30% की बढ़ोतरी
- Reddit पर दिन में 20+ पोस्ट
संबंधित सर्चेस में ग्रोथ
# बढ़ रहे संबंधित सर्चेस की जांच करें
related_queries = pytrends.related_queries()
rising_queries = related_queries['rising'].sort_values('value', ascending=False)
if len(rising_queries) < 5:
return False
उदाहरण:
“AI फ़ोन केस” वाले टॉपिक ने वेलिडेशन पास किया:
- GT में 120% की वृद्धि, tweets में +45%
- संबंधित शब्द “AI कूलिंग केस” +300%
परिणाम: चरण 1 पास हुआ
चरण 2: टिकाऊपन जांच
पद्धति: ट्रेंड का जीवन चक्र
मुख्य मीट्रिक्स:
इतिहास के पीक से तुलना
current_index = 80
historical_peak = gt_data['AI केस'].max()
if current_index < historical_peak * 0.3:
return "ट्रेंड डाउन हो रहा है"
संबंधित शब्दों की हेल्थ
- पॉजिटिव शब्द (“रिव्यू” / “खरीदना”) ≥ 60%
- नेगेटिव शब्द (“शिकायत” / “गड़बड़”) ≤ 10%
टूल:
TextBlob
के साथ सेंटिमेंट एनालिसिस:
from textblob import TextBlob
sentiment = TextBlob("AI केस गिरने से बचाता है, बेस्ट!").sentiment.polarity
if sentiment < 0.2:
return False
उदाहरण:
“AI केस” इंडेक्स = पीक का 65%, पॉजिटिव शब्द 78%
परिणाम: ट्रेंड ग्रो कर रहा है, चरण 2 पास
चरण 3: व्यावसायिक क्षमता का मूल्यांकन
बेस फॉर्मूला:
कॉमर्शियल इंडेक्स = (इंटेंट सर्च वॉल्यूम × 0.6) + (रिव्यू एंगेजमेंट × 0.4)
डेटा कलेक्शन:
खरीदारी इरादे वाली सर्चेस की निगरानी
buy_keywords = ["कहां खरीदें", "कीमत", "डिस्काउंट"]
buy_volume = sum([gt_data[keyword] for keyword in buy_keywords])
रिव्यू एंगेजमेंट
YouTube: लाइक्स / व्यूज़ ≥ 5%
Xiaohongshu: ≥ 500 फेवरेट्स
स्वचालित निर्णय:
if commercial_score >= 75:
ई-कॉमर्स + SEO कैंपेन चालू करें
elif commercial_score >= 50:
सिर्फ कंटेंट मार्केटिंग करें
else:
टॉपिक ड्रॉप कर दें
उदाहरण:
- “AI केस” की इंटेंट सर्च वॉल्यूम = 1200/दिन
- वीडियो रिव्यू लाइक रेट = 7.2%
- कॉमर्शियल इंडेक्स = (1200×0.6)+(7.2×0.4)=72+2.88=74.88 → कंटेंट मार्केटिंग शुरू करें
तीन-चरणीय फ़िल्टरिंग प्रक्रिया
graph TD
A[विषयों का डेटाबेस] --> B{चरण 1: लोकप्रियता जांच}
B -- पास --> C{चरण 2: दीर्घकालिक क्षमता}
B -- फेल --> D[आर्काइव]
C -- पास --> E{चरण 3: रूपांतरण क्षमता}
C -- फेल --> D
E -- पास --> F[मुख्य कंटेंट]
E -- फेल --> G[ऑब्ज़र्वेशन]
SEMrush × Google Trends अनुकूलन रणनीति
बोली समायोजन के लिए डायनामिक सिस्टम
मुख्य लॉजिक: SEMrush के CPC डेटा और Google Trends के मौजूदा ट्रेंड इंडेक्स को मिलाकर बिड को ऑटोमैटिकली एडजस्ट करना।
चरण 1: डेटा संग्रह
# SEMrush API से CPC प्राप्त करना (उदाहरण)
import requests
semrush_api = "https://api.semrush.com/?key=YOUR_KEY&type=phrase_all&phrase=vr%20glasses"
response = requests.get(semrush_api).text.split("\n")
cpc = float(response[1].split(";")[8]) # CPC एक्सट्रैक्ट करना
# Google Trends से रियल-टाइम इंडेक्स प्राप्त करना (0 से 100 तक)
gt_index = pytrends.interest_over_time()['vr glasses'].iloc[-1]
बोली समायोजन सूत्र:
सुझाई गई बोली = CPC × (Google Trends इंडेक्स / 100) × मार्केट फैक्टर
(फैक्टर: उभरता हुआ बाजार = 1.2; प्रतिस्पर्धी बाजार = 0.8)
Google Ads के साथ रियल टाइम सिंक्रोनाइज़ेशन
# Google Ads API से बिड अपडेट करना (उदाहरण)
ads_api.update_keyword_bid(keyword_id=123, new_bid=सुझाई_गई_बोली)
उदाहरण: अगर “vr glasses” का GT इंडेक्स 40 से बढ़कर 70 हो जाता है, तो नई बोली होगी:
1.5 × (70/100) × 1.2 = ₹1.26 → प्रभावी CPC में 16% की कमी
कीवर्ड रणनीति: आक्रमण और बचाव
स्टेप्स:
- SEMrush: प्रतियोगियों के टॉप 50 ट्रैफिक वाले कीवर्ड्स खोजें
- Google Trends: उन कीवर्ड्स को चुनें जिनका मासिक ग्रोथ > 20% है
- हीटमैप: लाल = उच्च मूल्य + उच्च प्रतिस्पर्धा; नीला = कम मूल्य + कम प्रतिस्पर्धा
import matplotlib.pyplot as plt
plt.scatter(x=प्रतिस्पर्धा, y=gt_ग्रोथ, c=cpc_कीवर्ड, cmap='RdYlGn')
plt.colorbar(label='CPC (₹)')
बजट का डायनामिक आवंटन
कैसे करें:
- फोरकास्टिंग: पिछले GT डेटा से ARIMA मॉडल को ट्रेन करें, ताकि अगले 7 दिनों के सर्च वॉल्यूम का पूर्वानुमान लगाया जा सके
from statsmodels.tsa.arima.model import ARIMA
model = ARIMA(gt_डेटा, order=(3,1,1))
results = model.fit()
forecast = results.forecast(steps=7)
SEMrush-आधारित बजट अलोकेशन:
- कीवर्ड वैल्यू = (कन्वर्जन रेट × औसत ऑर्डर वैल्यू) ÷ CPC
- सूत्र:
दैनिक बजट = (पूर्वानुमानित वॉल्यूम × कीवर्ड वैल्यू) ÷ कुल बजट
डेटा के इस युग में, 99% कंपनियाँ अभी भी बीते कल के ट्रेंड्स से भविष्य की योजना बनाती हैं।
Google Trends की ताकत भविष्य को “भविष्यवाणी” करने में नहीं है — बल्कि “सर्च इंटेंट” और “बिजनेस एक्शन” के बीच की दूरी को घटाने में है।