Google SEOに携わる人なら誰もが知っている通り、ツールは効率化のレバレッジです。Screaming Frogを例に挙げると、このクローラーツールは20分で人間が8時間かかる作業量を完了させることができます。ウェブサイトのすべてのURLをクロールし、80〜120個の一般的なSEOの問題(例:404デッドリンク、重複タイトル、Alt属性のない画像など)を正確に特定します。
この記事では、インストール設定からデータの活用まで、Screaming Frogをあなたの「SEO顕微鏡」に変える方法を解説します。

Table of Contens
Toggleインストールと基本設定
Screaming Frogのインストールは「次へを数回クリックするだけ」の簡単な操作に思えますが、インストール時にシステムの互換性に注意を払わなかったため、Mac版の動作が重くなり、クロール速度が通常より40%低下したというユーザーの報告もあります。
また、クロール深度を適当に設定した結果、小規模なサイトなのに2時間経っても主要なページの取得が終わらないというケースもあります。
インストール前の準備
1. システムの互換性
Screaming Frogは、Windows 10/11(64ビット)およびmacOS 10.15以上をサポートしています。パソコンがWindows 7やmacOS 10.14の場合、インストールパッケージをダウンロードしても「非互換」と表示されます。無理に実行するとクラッシュする可能性があります(実測データによると、Win7ユーザーのクラッシュ率は約35%です)。
2. 権限の問題
- Windows:管理者アカウントでのインストールを推奨します(インストールパッケージを右クリック→「管理者として実行」)。そうしないと、権限不足でクロールデータの書き込みができない場合があります(よくあるエラー:「ログファイルを保存できません」)。
- Mac:「システム整合性保護」(SIP)をオフにする必要はありませんが、初回実行時に「システム環境設定→セキュリティとプライバシー」で「そのまま開く」をクリックする必要がある場合があります(Macユーザーの約20%がこのステップでつまづきます)。
3. ネットワーク環境
クロールを開始する前に、プロキシソフトウェア(VPN、アクセラレーターなど)をオフにしてください。ローカルネットワークの遅延が200msを超えると、クロール速度が50%低下します(実測:200msの遅延で毎秒10URL、50msの遅延で毎秒25URL)。
正式インストール
Windowsシステム
- Screaming Frog公式サイト(www.screamingfrog.co.uk)にアクセスし、「Download Free Version」をクリックします(無料版でも中小規模サイトには十分です)。
- 「Windows Installer」を選択し、ダウンロード完了後にダブルクリックして実行します。
- 指示に従ってインストールパスを選択します(後の設定ファイル紛失を避けるため、デフォルトのCドライブを推奨します)。「デスクトップショートカットを作成する」にチェックを入れ、「インストール」をクリックします。
- インストール完了後、デスクトップに緑色のクモのアイコンが表示されるので、ダブルクリックして開きます。
macOSシステム
- 同様に公式サイトから「macOS DMG」を選択してダウンロードします。
- ダウンロードした.dmgファイルをダブルクリックし、「Screaming Frog SEO Spider」アイコンを「アプリケーション」フォルダにドラッグします。
- 初回起動時、システムから「開発元が未確認のため開けません」と表示される場合があります。その際は「システム環境設定→セキュリティとプライバシー」へ行き、「そのまま開く」をクリックしてください。
4つの基本設定
インストール完了後、ソフトを初めて開く際に「スパイダー(Spider)」のパラメータを設定する必要があります。
設定を間違えると、その後のクロールデータがすべて無駄になる可能性があります。
ユーザーエージェント (User Agent)
- 役割:ウェブサイトのサーバーに「私は誰か」を伝えます。Googleクローラーのユーザーエージェントは「Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)」です。
- 設定方法:上部メニューの「Configuration(配置)→ Spider」をクリックし、「User Agent」ドロップダウンから「Googlebot」を選択します(デフォルトは「Screaming Frog」)。
- なぜ重要か:デフォルトの「Screaming Frog」を使用すると、一部のサイトでクローラーがブロックされる場合があります(「Disallow: /screamingfrog」の設定など)。「Googlebot」を使用することで、実際のGoogleクローラーをシミュレートし、実態に近いデータを取得できます(実測:切り替え後、あるECサイトのクロール成功率が65%から92%に向上しました)。
クロール深度 (Crawl Depth)
- 定義:トップページから最大何階層のリンクまで辿るか(例:トップページ→カテゴリページ→製品ページは3階層)。
- 設定の目安:
- 中小規模サイト(ページ数1000以下):5階層に設定(主要ページの90%以上をカバー)。
- 大規模サイト(ページ数1000超):10階層に設定。ただし、クロール時間が長くなりすぎるのを避けるため、「クロール件数制限」(後述)と併用してください(10階層にするとクロール時間が10分から1時間に延びる場合があります)。
クロール件数制限 (Max URLs to Crawl)
- 役割:サイト内にリンクが多すぎる場合(フォーラムや無限スクロールページなど)、ソフトが停止せずにクロールし続けるのを防ぎます。
- 設定方法:「Configuration → Spider」で「Limit number of URLs to crawl」にチェックを入れ、数値を入力します(中小サイトは5000〜10000、大手サイトは5万件以内を推奨)。
- 設定しない場合の結果:あるユーザーが「おすすめ商品」の動的リンクを持つECサイトを制限なしでクロールしたところ、24時間稼働し続け、最終的に23万URLを取得しました(そのうち80%は重複した商品詳細ページでした)。
除外パラメータ (Exclude Parameters)
- 問題:多くのサイトのURLには不要なパラメータ(例:?utm_source=weibo, ?page=2)が含まれています。これらはコンテンツに影響しませんが、Screaming Frogは異なるURLとして認識し、重複クロールが発生します。
- 設定方法:「Configuration → Exclude」をクリックし、「Query Parameters」にフィルタリングしたいパラメータを入力します(カンマ区切り、例:utm_source,utm_medium,page)。
- 効果:ある教育サイトで12個のトラッキングパラメータをフィルタリングしたところ、クロールURL数が1.2万件から4500件に減少し、クロール時間が40%短縮されました。
トップページで一度「テストクロール」を行う
設定が完了しても、いきなり全サイトをクロールしないでください。まずはトップページのURLを入力し、「Start」を押して小規模なテスト(制限数を100件に設定)を行い、以下の3点を確認してください:
- 主要なページが漏れていないか:トップページナビゲーションの「会社概要」「お問い合わせ」などが取得されているか(「Internal」レポートでキーワード検索)。
- 重複URLがないか:「URL」レポートで、同一ページのパラメータ違いのバージョン(例:「/product」と「/product?color=red」)が混在していないか。
- 404エラーが発生していないか:「Response Codes」の404ステータスコードを確認し、削除済みのページ(旧キャンペーンページなど)をクロールしていないか確認します。
問題が見つかった場合は、「Configuration」に戻ってパラメータ(クロール深度の増加や除外パラメータの追加など)を調整し、再度テストしてください。
基本的なクロールのクイックスタート
多くの人は「スタートをクリックするだけ」で完了だと思っていますが、実際には30%の人が詳細を無視したために無効なデータを得ています。
例えば、ネットワークを確認せずに開始して遅延でフリーズしたり、制限を設けなかったために2時間も重複ページを取得し続けたり、URL形式を間違えて「結果0件」になったりするケースです。
開始前の3つのチェック項目
1. 基本設定が完了しているか確認
- ユーザーエージェント:「Googlebot」に設定されているか確認してください。設定しないとブロックされる可能性があります(実測:未設定時、ある企業サイトのクロール成功率は45%でしたが、設定後は90%に向上しました)。
- クロール深度:サイト規模に合わせて調整してください(中小サイトは5層、大規模サイトは10層)。浅すぎて重要ページを逃したり、深すぎて時間を浪費したりするのを防ぎます。
- 除外パラメータ:不要なトラッキングパラメータ(?utm_sourceなど)をフィルタリングし、重複URLを減らします。
2. ネットワークの安定性をテスト
- 遅延の要件:ターゲットサイトへの遅延が100ms以内であることが理想的です(「ping ドメイン名」コマンドでテスト)。
- 遅延 ≤ 100ms:毎秒20-30URLをクロール可能。
- 遅延 100-200ms:毎秒10-15URL。
- 遅延 > 200ms:毎秒10URL未満。クロール時間が倍増します。
- 干渉を避ける:VPN、アクセラレーター、ダウンロードツールをオフにします(実測:ダウンロードソフト起動中、速度が60%低下しました)。
3. ターゲットサイトがアクセス可能か確認
- ブラウザで直接ターゲットURLを入力し、正常に開けるか確認します(「403 Forbidden」ページをクロールしないようにするため)。
- ログイン制限がある場合(会員制システムなど)、事前にログアウトしてください(Screaming Frogはログイン状態を処理できず、空白ページや403エラーを取得します)。
4つの操作ステップ、10分で結果を取得
1. ターゲットURLを入力
- 形式の要件:必ずフルURL(http:// または https:// を含む)を入力してください。そうしないと「無効なURL」エラーが出ます。
- 例:正しい入力「https://www.example.com」、誤った入力「example.com」。
- 複数ドメインの処理:関連する複数のドメイン(wwwとモバイルサイトなど)をクロールする場合、それぞれ別々に開始する必要があります。
2. 制限条件の設定(オプションですが推奨)
- クロール件数制限:「Configuration → Spider」で「Limit number of URLs to crawl」にチェックを入れ、数値を入力します。
- 特定ページの除外:「Configuration → Exclude」で「/admin/」などの管理画面を除外ルールに追加します。
3. 「Start」をクリックし、リアルタイムの状態を観察
- 進捗バー:上部のバーで全体の進捗を確認(緑=正常、黄=低速、赤=停止)。
- ステータスバー:右下に「取得済みX件、待機中Y件、速度Z件/秒」が表示されます。
4. 途中のトラブル処理
- 動かなくなった場合:ネットワークを確認し、改善しない場合は「Stop」を押して10秒待ってから再開してください。また、ユーザーエージェントを「Bingbot」に変更すると制限を回避できる場合があります。
クロール完了
完了のヒントが表示されたら、データ品質を確認するために以下の3点を行ってください:
1. 総取得件数が妥当か確認
- 中小サイト(100ページ以内)は通常50-200件、中大規模サイト(1000ページ以内)は500-3000件程度が目安です。
- 取得数が0の場合は、URL形式やブロック設定(robots.txtなど)を確認してください。
2. 重要ページが取得されているか確認
- 「Internal」メニューでページのキーワード(例:「製品」「会社概要」)を検索し、結果にあるか確認します。
3. 大量のエラーステータスコードがないか確認
- 404(死線)、500(サーバーエラー)、301/302(リダイレクト)を重点的にチェックします。
SEOレポートの読み解き(重要な6項目)
SEOの世界では「データは嘘をつかない」と言われますが、Screaming Frogの多くのレポートの中でも、Googleのランキングに影響する情報は主に6つのレポートに集約されます。
統計によると、これら6つの問題を解決するだけで、コンテンツ制作を増やさなくても、中小サイトのインデックス率は65%から85%に向上し、自然検索トラフィックは平均20%増加します。
レスポンスステータスコード・レポート
各ページのHTTPステータスコードを記録します。ステータスコードが正しくないと、クローラーはページをスキップする可能性があります。
主要データと操作
- 200 (正常):全体の85%以上を目指すべきです。
- 404 (デッドリンク):リンク切れURLを抽出し、リンク元の修正または301リダイレクトを設定します。
- 301/302 (リダイレクト):5%を超える場合は要注意です。
- 500 (サーバーエラー):3%を超える場合は技術的な調査が必要です。
URLの長さと構造レポート
Googleクローラーの長いURLに対する「忍耐」は限られています。URLが長いほど、完全にクロールされる確率が下がります。
主要データと操作
- 100文字を超えるURLを抽出し、パスを短縮(80文字以内が理想)します。
- 3つ以上の動的パラメータを持つURLは、静的なリンクに置き換えるかパラメータを整理します。
タイトルタグ・レポート
タイトルはGoogleがページテーマを判断する核心です。重複や無効なタイトルはランキングを直接低下させます。
主要データと操作
- 重複タイトルを抽出し、各ページに固有のタイトル(例:「製品名-ブランド名」)を付けます。
- 長さは50〜60文字程度が理想的です。長すぎるものは省略されるため短縮します。
メタディスクリプション・レポート
ランキングに直接は影響しませんが、ユーザーがクリックするかどうかを左右します。
主要データと操作
- 未設定のページには、150〜160文字程度で内容を記述します。
- 短すぎたり、長すぎて省略されたりしているものを最適化し、ユーザーの関心を引く情報を盛り込みます。
H1タグ・レポート
H1はページの主見出しであり、GoogleはH1からページの核心を判断します(1ページに1つが原則です)。
主要データと操作
- H1がないページや、複数学るページを修正します。
- H1の内容がコンテンツと一致しているか確認し、核心となる訴求ポイントを記述します。
画像Alt属性レポート
Alt属性は画像のテキスト説明です。不足していたりキーワードを詰め込みすぎたりすると、画像検索のトラフィックを逃します。
主要データと操作
- Altテキストがない画像に具体的な説明(例:「赤いスニーカーの側面写真」)を追加します。
- キーワードの不自然な羅列を避け、自然な文章に修正します。
内部リンク問題の一括チェック
統計によると、内部リンクをチェックしていないサイトでは、平均15-20%のページがリンクの問題で効率的にインデックスされていません。これらを解消することでクロール量は30%以上向上します。
デッドリンクの内部リンク
デッドリンクは404エラーに繋がります。ユーザーの離脱を招き、クローラーもそのページへの訪問を減らしてしまいます。
操作
- 「Internal」レポートで「Status Code」が404のものを抽出。
- リンク元を特定し、リンクを削除するか、有効なURLに差し替える、または301リダイレクトを設定します。
孤立したページ (Orphan Pages)
どの内部リンクも向けられていないページです。これらはGoogleに見つけてもらえる確率が60%低下します。
操作
- 「Indexability」レポートで「Linked From = 0」のものを抽出。
- 価値のあるページであれば、カテゴリページや関連記事からリンクを貼ります。価値がなければ削除を検討してください。
リンクジュースの集中と分散
トップページにリンクが多すぎると、クローラーの注意が分散し、他の重要なページ(製品ページやブログ記事)の取得機会が減ります。
操作
- 「Internal」レポートで「Outgoing Links」が多い順に並べ替えます。
- 重要でないリンクをフッターに移動したり整理したりして、主要なコンテンツへリンクが集まるように調整します。
一括処理の3つのコツ
- Excelで頻出問題を絞り込む:データをエクスポートし、共通の修正が必要な箇所を見つけます。
- 権威性の高いページのリンクから優先的に修正:トップページやカテゴリページのリンク修正は影響範囲が広いため優先します。
- 定期的な再チェック:2週間に一度はクロールを行い、新たな問題が発生していないか確認しましょう。
最後に、ツールはあくまで補助です。Googleランキングの核心は常に「ユーザーが必要とするコンテンツ」です。






