重要ではありません。2025年のデータによると、上位10位のウェブページの平均キーワード密度はわずか1.2%〜2.4%です。Googleは、コンテンツの関連性(ユーザーのニーズを網羅しているか)とユーザー行動(2分10秒以上の滞在時間)により注目しています。
過去10年間で、Googleのアルゴリズムは30回以上反復されました(2015年のRankBrain、2019年のBERTなど)。これにより、機械による意味の理解の精度は92%に向上しました(Google公式テスト)。これは、初期のキーワードマッチングに依存した粗雑なロジックを遥かに超えています。
初期のSEO実務者は、キーワードの詰め込み(さらには非表示テキストの使用)によってランキングを操作しようと試み、その結果、2003年から2011年の間にGoogleは累計120万以上のウェブサイトにペナルティを科しました(Google透明性レポート)。
現在、アルゴリズムは「スニーカー」と「ランニング用の軽量シューズ」の間の意味的関連性を識別でき、ユーザー行動データにより注目しています。上位3位のウェブページの平均滞在時間は2分15秒に達し(Ahrefs 2025年のデータ)、直帰率は35%を下回っています。

Table of Contens
Toggle以前、キーワード密度が重視されていた理由
2000年代初頭、Googleが主要な検索エンジンになったばかりの頃は、検索リクエストを処理する技術は現在ほどスマートではありませんでした。
例えば、ユーザーが「スニーカー」を検索すると、システムは、そのウェブページ内で「スニーカー」という単語の出現回数が最も多いページを優先的に表示しました。10回出現するページは、5回出現するページよりも上位に表示される可能性が高かったのです。
このロジックが初期のSEO実践を生み出しました。多数の上位ページのキーワード出現頻度を統計することで、実務者は、ターゲットキーワードがウェブページの全文に占める割合(つまり「キーワード密度」)が通常2%から8%の間にあることを発見しました。
例えば、1000語のウェブページで、ターゲットキーワードが20回から80回出現すると、ランキングが良好になる傾向がありました。
2002年前後の業界調査では、SEO実務者の約65%がキーワード密度を3%〜5%に管理しており、これが「安全かつ効果的な範囲」であると考えていました。
一部のウェブマスターは、迅速にランキングを向上させるために、意図的にキーワードを詰め込み始めました。例えば、ある段落で「スニーカースニーカースニーカー」と繰り返し書いたり、白い背景に白いフォントで追加のキーワードを隠したり(ユーザーには見えないが、検索エンジンはクロールできる)しました。
2003年にGoogleはFloridaアップデートを導入し、このような過度な最適化の行為を専門的に取り締まりました。2011年のPandaアップデートでは、さらに低品質なコンテンツのランキングウェイトを低下させました。
検索エンジンは「単語を数える」ことしかできなかった
2000年代初頭、Googleのコアアルゴリズム(PageRankなど)は主に「どのウェブページがより権威があるか」(リンクの数と質に基づいて判断)という問題を解決しましたが、「ウェブページの内容がユーザーのニーズに正確に合致しているか」という判断能力は弱かったです。
当時のクローラープログラムはウェブページをクロールした後、テキストコンテンツを抽出し、インデックスを作成しました。そして、検索結果の順位付けロジックの中で、「キーワードの一致度」が最も基本的な指標でした。
初期の検索エンジンは、2つの重要なデータを計算していました。
- キーワード出現回数:ウェブページ内のターゲットワード(例:「スニーカー」)の絶対数。例えば、靴を紹介するウェブページで、「スニーカー」が15回出現した場合、5回しか出現しなかった別のページよりも関連性が高いと見なされる可能性がありました。
- キーワード密度:ターゲットワードがウェブページの総文字数に占める割合。初期の業界調査では、上位ページの密度は通常2%〜8%の間であることがわかりました。例えば、500語のウェブページで、「スニーカー」が10回〜40回出現する(密度2%〜8%)方が上位に表示される可能性が高く、2回しか出現しない(密度0.4%)場合は「関連性がない」と判断される可能性がありました。
2002年のSEOツールプロバイダーであるWebPosition Goldの統計によると、「デジタルカメラ」で検索した上位20位のウェブページ1万件を分析したところ、ターゲットキーワードの平均密度は4.7%であり、密度が2%未満のページは10位以内にランクインしたものがわずか12%でした。
2001年から2003年のGoogle検索結果を対象とした別の追跡調査(データ出典:Search Engine Watch)では、ユーザーが具体的な名詞(例:「Bluetoothイヤホン」)を検索した場合、キーワード密度が3%〜6%のウェブページがランキングを獲得する確率は、密度が1%未満のページよりも約3倍高いことがわかりました。
これにより、初期のSEO実務者は「経験則」をまとめました。あるキーワードのランキングを向上させたい場合は、その単語をウェブページ内で自然に数回繰り返し、密度を2%〜8%の間に管理することです。
キーワード密度とランキング
2004年に米国のSEO企業(SEOmoz、現在のMoz)が比較実験を行いました。彼らは、ターゲットキーワード「フィットネス機器」の出現回数(5回から50回まで)だけが異なる、内容がほぼ同じ10個のウェブページを作成しました。
これらのウェブページをGoogleに提出した後、30日間のランキング変動を監視しました。結果は以下の通りでした。
- 5回出現するウェブページ(密度約1%)の平均ランキングは15位から20位でした。
- 15回出現するウェブページ(密度約3%)の平均ランキングは5位から8位に上昇しました。
- 30回出現するウェブページ(密度約6%)のランキングが最も高く、平均2位から4位でした。
- 50回出現するウェブページ(密度約10%)は密度が最も高かったものの、一部のページは詰め込みと見なされ(テキストが不自然に繰り返されていたため)、ランキングは逆に10位以下に転落しました。
同様のテストは2005年から2007年の間に複数の機関によって繰り返され(Search Engine Journalの事例研究など)、結論は基本的に一致していました。一定の範囲内(約2%〜8%)では、キーワード密度が高いほど、ウェブページが関連検索でランキングを獲得する可能性が高かったのです。
しかし、この範囲を超えると(例えば10%を超えると)、ランキングは「過度な最適化」のために低下する可能性がありました。
これにより、当時のSEOガイドラインは一般的に「ターゲットキーワードをタイトル、冒頭の段落、見出しに入れ、全文の密度を約3%に保つこと」を推奨しました。
例えば、2006年に出版された古典的なSEO書籍『Search Engine Optimization: An Hour a Day』には、「キーワード密度のチェックは基本的なステップであり、理想的な範囲は通常2%〜5%である」と明確に書かれています。
明示的なキーワードにしか頼れなかった
2000年代初期のGoogleアルゴリズムのコアは、「ターム頻度-逆文書頻度」(TF-IDF)モデルでした。
簡単に言えば、ある単語が現在のウェブページに出現する頻度(TF)を計算し、同時にその単語がインターネット全体で出現する一般性(IDF)と比較するというものです。
ある単語が現在のウェブページで頻繁に出現し(TFが高い)、他のウェブページではめったに出現しない場合(IDFが高い)、「このウェブページにとって非常に重要」と見なされました。
このモデルはテキストの意味を全く理解できませんでした。例えば、「スニーカー」と「ランニング用のシューズ」はユーザーの目には同じニーズですが、アルゴリズムにとっては、これらは完全に異なる2つの単語でした。ウェブページに「ランニング用のシューズ」としか書かれておらず「スニーカー」という単語が言及されていない場合、ユーザーが「スニーカー」を検索してもそのウェブページが見つからない可能性がありました。
2003年にGoogleのエンジニアが技術ブログで明らかにしたところによると、クローラープログラムはテキストの表面的な形式しか識別できず、文の構造や文脈の関係を分析することはできませんでした。
2003年以降、Googleがより複雑なアルゴリズム(セマンティックインデックスLSI、単語の関連性を理解しようと試みる)を導入し始めてから、キーワード密度の絶対的な支配的な地位は徐々に弱まっていきました。
現在のGoogleアルゴリズムはどれほどスマートか
2003年当時、Googleはウェブページが関連性があるかどうかを主に「キーワード出現回数」に頼って判断していましたが、2025年までに、この「古いやり方」は完全に革新されました。
データによると、現在のGoogleのコアアルゴリズム(RankBrain、BERT、MUMなど)は、ユーザーの検索の背後にある真の意図を理解でき、複雑な文の関係も処理できます。
例えば、ユーザーが「偏平足に適した軽量スニーカー」と検索した場合、Googleは単にこのフレーズを含むウェブページを探すのではなく、「偏平足向けに設計された、履き疲れしないスニーカーを探している」と理解できます。そのため、ウェブページに「このシューズはサポート設計のソールで、長時間歩いても疲れにくく、幅広の足に適しています」と書かれていても、良いランキングを獲得する可能性があります。
- 2015年にリリースされたRankBrain(Google初の機械学習ランキングアルゴリズム)は、数十億の検索行動を分析することで、「どのウェブページが本当にユーザーの問題を解決したか」を自動的に学習できます。
- 2019年のBERTアルゴリズム(Transformerアーキテクチャに基づく)は、Googleの自然言語理解能力を約60%向上させました(Google公式テストデータ)。これにより、文中の前後関係のロジックを解析できます(例えば、「高いものが良いとは限らない」という否定関係など)。
- 2021年のMUMアルゴリズムはさらに強力で、75の言語を同時に処理し、分野を超えた複雑なクエリを理解できます(例えば、「膝が悪いので、ランニングと登山両方に使える靴が欲しいのですが、何かお勧めはありますか?」)。
Googleの検索語の約72%は自然な文章(単純な単語ではない)であり、これらの複雑なクエリに対するアルゴリズムの理解精度は90%を超えています(Google検索品質チーム2024年レポート)。
ユーザー行動データも、アルゴリズムがコンテンツの品質を判断するのに役立っています。上位10位のウェブページの平均滞在時間は2分10秒に達し(Ahrefs 2025年調査)、直帰率は38%未満です。
「単語の一致」から「意図の一致」へ
具体的な例を挙げると、ユーザーが「夏に蒸れない靴」と検索した場合、初期のGoogleは「夏」「蒸れない」「靴」の3つの単語をすべて含むウェブページを優先的に表示する可能性がありました。
しかし、現在のアルゴリズムは、ユーザーが本当に必要としているのは「通気性が良く、夏に適した履物」であると理解できるため、ウェブページに「このシューズはメッシュ素材のアッパーで、夏に履いても足が汗をかかず、日常の通勤に適しています」と書かれていても、上位に表示される可能性があります。
重要な技術はBERT(2019年リリース)とMUM(2021年リリース)です。BERTは文中の単語の関係(例えば、「蒸れない」と「通気性が良い」は類義語の表現)を分析することで、Googleが自然言語の文脈を理解できるようにしました。
MUMはさらに強力で、テキスト、画像、さらには動画コンテンツを同時に理解でき(例えば、ウェブページに「軽量で通気性がある」というテキストの説明があり、ユーザーがアップロードした「靴内部の通気孔」の実際の写真もある場合)、コンテンツの関連性を総合的に判断します。
データによると、BERTのリリース後、Googleの複雑なクエリ(複数の修飾語を含む長い文)の理解精度は約70%向上しました(Google公式2020年レポート)。例えば、「偏平足に適した滑り止めのランニングシューズ」と検索した場合、アルゴリズムは現在、「偏平足」(サポートが必要)、「滑り止め」(靴底のパターン設計が必要)、「ランニングシューズ」(運動シーン)という3つのコアなニーズを正確に識別できます。
「人為的な推測」を「実際の相互作用」に置き換える
ウェブマスターが「私のコンテンツは優れている」と言うのを見るのではなく、実際のユーザーが「行動で示す」結果を見ています。
いくつかの行動指標には以下が含まれます。
- 滞在時間:ユーザーがウェブページを開いてからどれくらいの時間閲覧したか。データによると、上位3位のウェブページの平均滞在時間は2分15秒に達し(Ahrefs 2025年調査)、一方、下位のウェブページは通常30秒から45秒しかありません。例えば、「スニーカーの素材の違い」を詳細に紹介するウェブページをユーザーが開いて5分間注意深く読んだ場合、アルゴリズムは「このページの内容には価値がある」と見なします。
- 直帰率:ユーザーがウェブページを開いた直後に検索結果ページに戻る割合。直帰率が35%未満のウェブページ(つまり、ほとんどのユーザーが見た後すぐに離脱しない)は、より良いランキングを獲得する可能性が高く、直帰率が60%を超えるウェブページ(ユーザーが「求めているものではない」と感じた)はランキングが低下します。
- 相互作用行動:ページ内のリンクのクリック、ページの最下部へのスクロール、ブックマーク、共有などが含まれます。例えば、あるショッピングガイドのウェブページで、ユーザーが本文を読むだけでなく、「価格帯別のおすすめ」のサブリンクをクリックしたり、そのページを共有したりした場合、アルゴリズムは「このページはユーザーの深いニーズを満たしている」と見なします。
例えば、「スニーカーの選び方のコツ」という同じ内容を含む2つのウェブページがあり、Aページの滞在時間が3分、直帰率が30%であるのに対し、Bページの滞在時間が45秒、直帰率が70%である場合、たとえBページのキーワード密度がわずかに高くても、アルゴリズムはAページを優先的に推奨します。
コンテンツだけでなく、「全体的な体験」も見る
現在のGoogleのランキングロジックは「総合評価」です。
- 情報網羅性:アルゴリズムは、ウェブページがテーマの主要な側面を網羅しているかどうかを判断します。例えば、「子供用スニーカーの選び方」を検索した場合、良いウェブページには「年齢別のアドバイス(3歳と8歳の比較)」「靴底の素材(硬度)」「靴の形状設計(足の形成への影響)」「ブランドのおすすめ(具体的なモデルを含む)」など、複数の側面が含まれている必要があります。データによると、3つ以上のサブディメンションを含むウェブページは、単一の内容しか扱わないウェブページよりもランキングが20%〜30%高い傾向があります(SEMrush 2024年分析)。
- ページ体験:読み込み速度、モバイル対応、レイアウトの明瞭さなどが含まれます。Googleは、ウェブページが3Gネットワーク下で3秒以内に読み込まれること(2025年の基準)、モバイルデバイス上のテキストとボタンが簡単にクリックできること(小さすぎたり重なったりしないこと)を要求しています。テストによると、読み込み速度が1秒遅くなるごとに、直帰率は約20%増加します(Google Search Centralのデータ)。
- 技術的最適化:例えば、ウェブページに明確なタイトル構造があるか(H1-H6タグの適切な使用)、画像にテキスト説明(alt属性)があるか、URLが簡潔であるか(文字化けを避ける)などです。例えば、画像が「スニーカーの側面の通気孔」であるウェブページで、画像にalt=”メッシュスニーカー側面の通気設計”が追加されている場合、アルゴリズムは「通気性」というニーズとページをより正確に関連付けます。
現在のGoogleアルゴリズムは「経験豊富な編集者」のようなもので、キーワードの詰め込みに頼る「ごまかし」を完全に無効にし、本当に熱心にコンテンツを作成する人々がより良いランキングを獲得しやすくしています。
Googleが本当に気にしていること
Googleのエンジニアは2024年の技術レポートで、「検索ランキングのコアな目標は、ユーザーに最も関連性があり、最も役立つコンテンツを表示することである」と明確に述べています。
Googleは、3つの主要なデータを通じてウェブページの価値を評価します。1つ目はコンテンツのカバレッジ(ユーザーの質問に包括的に答えているか)、2つ目はユーザー行動のフィードバック(本当に必要とされているか)、3つ目はページ体験の基本(情報に簡単にアクセスできるか)です。
例えば、「子供用スニーカーの選び方」を検索したウェブページで、「3〜6歳と7〜12歳の靴の形状の違い」「靴底の硬度が足の成長に与える影響」「3つのブランドの具体的なモデルの推奨」などの情報が含まれている場合、そのランキングは「軽くて通気性のある靴を選ぶ」としか書かれていないページよりも20%〜30%高い傾向があります(SEMrush 2024年分析)。
コンテンツがユーザーのニーズに正確に一致しているか
Googleの最優先事項は、「このウェブページが本当にユーザーが検索したトピックについて議論しているか」を判断することです。
ここでの「関連性」は、単純なキーワードの出現ではなく、コンテンツがユーザーの問題の核心的なポイントを網羅しているかどうかです。
例えば、ユーザーが「偏平足に適したランニングシューズ」と検索した場合、Googleは「偏平足にはサポートが必要」「ソールには安定した設計がある」「長距離ランニングに適したクッション性のある素材」などの情報が明確に言及されているウェブページを優先的に表示します。
データによると、「ユーザーの検索語句+具体的な解決策」を含むウェブページ(例:「偏平足+サポートインソール」「ランニング+クッションミッドソール」)は、キーワードのみを含むが実質的な内容がないウェブページよりもランキングが40%以上高いことが示されています(Search Engine Journal 2024年事例研究)。
Googleはどのように関連性を判断するのでしょうか?
- トピックのカバレッジの幅広さ:ユーザーが関心を持つ可能性のある複数の側面をカバーしているか。例えば、「スニーカーの選び方」は外観だけでなく、「素材(通気性/耐摩耗性)」「適用シーン(ランニング/ウォーキング)」「サイズ選び(甲の高さの影響)」などの側面も含める必要があります。SEMrushの分析によると、3つ以上のサブディメンションを含むウェブページは、一般的にランキングがより上位になります。
- キーワードの自然な組み込み:ターゲットワード(例:「スニーカー」)は、タイトル、冒頭の段落、見出しに適切に出現する必要があり、同時に本文中で同義語の表現(例:「ランニング用のシューズ」「トレーニングシューズ」)として自然に展開される必要があります。過度な詰め込み(例:ある段落で5回以上繰り返す)は逆にペナルティを受ける可能性があります。
- 時事性と正確性:「2025年新作スニーカー」のような検索の場合、Googleは過去1年以内に更新されたウェブページ(データ更新時間が2024年〜2025年)を優先的に表示し、内容中のパラメータ(例:「靴の重さ350グラム」「防水等級IPX4」)は公開情報と一致している必要があります。
コンテンツの品質
Googleは、ユーザー行動データとコンテンツの特徴を通じて、ウェブページが「価値ある情報」を提供しているかどうかを判断します。
情報の深さが主要な指標の1つです。例えば、「スニーカーのメンテナンス方法」を検索した場合、一般的なウェブページは「定期的に靴を拭く」としか書かないかもしれませんが、高品質なウェブページは「異なる素材のクリーニング方法(メッシュには柔らかいブラシ+中性洗剤、レザーには専用のケアオイル)」「保管環境(湿気と直射日光を避ける)」「インソールの交換サイクル(6〜12ヶ月ごと)」などの具体的な手順を詳しく説明します。
Ahrefsの2025年調査によると、「操作手順/比較データ/専門家のアドバイス」を含むウェブページは、ユーザーの滞在時間が平均1分30秒長く、直帰率が25%低いことが示されています。
権威性は、コンテンツの信頼できる情報源によって示されます。プロのスポーツブランドの公式サイト(ナイキ、アディダスなど)が公開した「あるスニーカーの技術分析」や、スポーツ医学機関が執筆した「アーチサポートの選択ガイド」などの場合、Googleはより高いウェイトを与えます。
第三者データによると、「公式認証」「専門機関との提携」のロゴが付いているウェブページは、個人のブログよりもランキングが15%〜20%高い傾向があります。
Googleのアルゴリズムは「コピー&ペースト」されたウェブページを検出でき(テキストの類似性比較を通じて)、このようなページはキーワード密度が高くてもランキングが抑制されます。
ユーザーが情報に簡単にアクセスできるか
コンテンツと品質が基準を満たしていても、ユーザーが「理解できない」または「使いにくい」と感じた場合、Googleは優先的に推奨しません。
Googleは、ウェブページが3Gネットワーク下(低速環境をシミュレート)で読み込み時間が3秒以内であることを要求しています(2025年の基準)。
テストによると、読み込み速度が1秒遅くなるごとに、直帰率は約20%増加し(Google Search Centralのデータ)、モバイルデバイスに適合している必要があります。テキストサイズは14px以上、ボタンの間隔は十分でクリックしやすい(誤操作を避ける)、画像はぼやけたり歪んだりしない必要があります。
SEMrushの分析によると、モバイル体験が悪いウェブページ(テキストの重なり、メニューが開かないなど)は、体験が良いページよりもランキングが30%〜40%低いことがわかっています。
インタラクション体験は、ユーザーが「閲覧を続けたいと思うか」に焦点を当てています。
例えば:
- タイトルは明確か? H1タグはページのテーマを正確に要約する必要があります(例:「2025年偏平足に適したスニーカーの選び方ガイド」)。H2/H3の見出しは具体的な問題について階層的に説明する必要があります(例:「偏平足とは何か」「推奨シューズの特徴」)。
- 情報は読みやすいか? 段落の長さは3〜5行に制御し、重要なデータ(例:「靴の重さ350グラム」「価格500円以内」)は太字やリストで強調します。
- 補助的な要素はあるか? 画像/動画(例:「靴底のパターンのクローズアップ」「試着の比較」)は、ユーザーが内容をより直感的に理解するのに役立ちます。alt属性(画像の説明テキスト)にはキーワードを含める必要があります(例:「偏平足サポートスニーカーの靴底デザイン」)。
Googleのアルゴリズムは、これに基づいて「このページは確かに役立つ」と判断し、ランキングを向上させます。
結局のところ、Googleが本当に気にしているのは「ユーザーが検索後に満足したかどうか」です。






