微信客服
Telegram:guangsuan
电话联系:18928809533
发送邮件:[email protected]

Screaming Frogを活用したSEO対策丨2025年最新ガイド

本文作者:Don jiang

Google SEOに携わる人なら誰もが知っている通り、ツールは効率化のレバレッジです。Screaming Frogを例に挙げると、このクローラーツールは20分で人間が8時間かかる作業量を完了させることができます。ウェブサイトのすべてのURLをクロールし、80〜120個の一般的なSEOの問題(例:404デッドリンク、重複タイトル、Alt属性のない画像など)を正確に特定します。

この記事では、インストール設定からデータの活用まで、Screaming Frogをあなたの「SEO顕微鏡」に変える方法を解説します。

如何使用 Screaming Frog 进行 SEO

インストールと基本設定

Screaming Frogのインストールは「次へを数回クリックするだけ」の簡単な操作に思えますが、インストール時にシステムの互換性に注意を払わなかったため、Mac版の動作が重くなり、クロール速度が通常より40%低下したというユーザーの報告もあります。

また、クロール深度を適当に設定した結果、小規模なサイトなのに2時間経っても主要なページの取得が終わらないというケースもあります。

インストール前の準備

1. システムの互換性

Screaming Frogは、Windows 10/11(64ビット)およびmacOS 10.15以上をサポートしています。パソコンがWindows 7やmacOS 10.14の場合、インストールパッケージをダウンロードしても「非互換」と表示されます。無理に実行するとクラッシュする可能性があります(実測データによると、Win7ユーザーのクラッシュ率は約35%です)。

2. 権限の問題

  • Windows:管理者アカウントでのインストールを推奨します(インストールパッケージを右クリック→「管理者として実行」)。そうしないと、権限不足でクロールデータの書き込みができない場合があります(よくあるエラー:「ログファイルを保存できません」)。
  • Mac:「システム整合性保護」(SIP)をオフにする必要はありませんが、初回実行時に「システム環境設定→セキュリティとプライバシー」で「そのまま開く」をクリックする必要がある場合があります(Macユーザーの約20%がこのステップでつまづきます)。

3. ネットワーク環境

クロールを開始する前に、プロキシソフトウェア(VPN、アクセラレーターなど)をオフにしてください。ローカルネットワークの遅延が200msを超えると、クロール速度が50%低下します(実測:200msの遅延で毎秒10URL、50msの遅延で毎秒25URL)。

正式インストール

Windowsシステム

  1. Screaming Frog公式サイト(www.screamingfrog.co.uk)にアクセスし、「Download Free Version」をクリックします(無料版でも中小規模サイトには十分です)。
  2. 「Windows Installer」を選択し、ダウンロード完了後にダブルクリックして実行します。
  3. 指示に従ってインストールパスを選択します(後の設定ファイル紛失を避けるため、デフォルトのCドライブを推奨します)。「デスクトップショートカットを作成する」にチェックを入れ、「インストール」をクリックします。
  4. インストール完了後、デスクトップに緑色のクモのアイコンが表示されるので、ダブルクリックして開きます。

macOSシステム

  • 同様に公式サイトから「macOS DMG」を選択してダウンロードします。
  • ダウンロードした.dmgファイルをダブルクリックし、「Screaming Frog SEO Spider」アイコンを「アプリケーション」フォルダにドラッグします。
  • 初回起動時、システムから「開発元が未確認のため開けません」と表示される場合があります。その際は「システム環境設定→セキュリティとプライバシー」へ行き、「そのまま開く」をクリックしてください。

4つの基本設定

インストール完了後、ソフトを初めて開く際に「スパイダー(Spider)」のパラメータを設定する必要があります。

設定を間違えると、その後のクロールデータがすべて無駄になる可能性があります

ユーザーエージェント (User Agent)

  • 役割:ウェブサイトのサーバーに「私は誰か」を伝えます。Googleクローラーのユーザーエージェントは「Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)」です。
  • 設定方法:上部メニューの「Configuration(配置)→ Spider」をクリックし、「User Agent」ドロップダウンから「Googlebot」を選択します(デフォルトは「Screaming Frog」)。
  • なぜ重要か:デフォルトの「Screaming Frog」を使用すると、一部のサイトでクローラーがブロックされる場合があります(「Disallow: /screamingfrog」の設定など)。「Googlebot」を使用することで、実際のGoogleクローラーをシミュレートし、実態に近いデータを取得できます(実測:切り替え後、あるECサイトのクロール成功率が65%から92%に向上しました)。

クロール深度 (Crawl Depth)

  • 定義:トップページから最大何階層のリンクまで辿るか(例:トップページ→カテゴリページ→製品ページは3階層)。
  • 設定の目安
    • 中小規模サイト(ページ数1000以下):5階層に設定(主要ページの90%以上をカバー)。
    • 大規模サイト(ページ数1000超):10階層に設定。ただし、クロール時間が長くなりすぎるのを避けるため、「クロール件数制限」(後述)と併用してください(10階層にするとクロール時間が10分から1時間に延びる場合があります)。

クロール件数制限 (Max URLs to Crawl)

  • 役割:サイト内にリンクが多すぎる場合(フォーラムや無限スクロールページなど)、ソフトが停止せずにクロールし続けるのを防ぎます。
  • 設定方法:「Configuration → Spider」で「Limit number of URLs to crawl」にチェックを入れ、数値を入力します(中小サイトは5000〜10000、大手サイトは5万件以内を推奨)。
  • 設定しない場合の結果:あるユーザーが「おすすめ商品」の動的リンクを持つECサイトを制限なしでクロールしたところ、24時間稼働し続け、最終的に23万URLを取得しました(そのうち80%は重複した商品詳細ページでした)。

除外パラメータ (Exclude Parameters)

  • 問題:多くのサイトのURLには不要なパラメータ(例:?utm_source=weibo, ?page=2)が含まれています。これらはコンテンツに影響しませんが、Screaming Frogは異なるURLとして認識し、重複クロールが発生します。
  • 設定方法:「Configuration → Exclude」をクリックし、「Query Parameters」にフィルタリングしたいパラメータを入力します(カンマ区切り、例:utm_source,utm_medium,page)。
  • 効果:ある教育サイトで12個のトラッキングパラメータをフィルタリングしたところ、クロールURL数が1.2万件から4500件に減少し、クロール時間が40%短縮されました。

トップページで一度「テストクロール」を行う

設定が完了しても、いきなり全サイトをクロールしないでください。まずはトップページのURLを入力し、「Start」を押して小規模なテスト(制限数を100件に設定)を行い、以下の3点を確認してください:

  1. 主要なページが漏れていないか:トップページナビゲーションの「会社概要」「お問い合わせ」などが取得されているか(「Internal」レポートでキーワード検索)。
  2. 重複URLがないか:「URL」レポートで、同一ページのパラメータ違いのバージョン(例:「/product」と「/product?color=red」)が混在していないか。
  3. 404エラーが発生していないか:「Response Codes」の404ステータスコードを確認し、削除済みのページ(旧キャンペーンページなど)をクロールしていないか確認します。

問題が見つかった場合は、「Configuration」に戻ってパラメータ(クロール深度の増加や除外パラメータの追加など)を調整し、再度テストしてください。

基本的なクロールのクイックスタート

多くの人は「スタートをクリックするだけ」で完了だと思っていますが、実際には30%の人が詳細を無視したために無効なデータを得ています

例えば、ネットワークを確認せずに開始して遅延でフリーズしたり、制限を設けなかったために2時間も重複ページを取得し続けたり、URL形式を間違えて「結果0件」になったりするケースです。

開始前の3つのチェック項目

1. 基本設定が完了しているか確認

  • ユーザーエージェント:「Googlebot」に設定されているか確認してください。設定しないとブロックされる可能性があります(実測:未設定時、ある企業サイトのクロール成功率は45%でしたが、設定後は90%に向上しました)。
  • クロール深度:サイト規模に合わせて調整してください(中小サイトは5層、大規模サイトは10層)。浅すぎて重要ページを逃したり、深すぎて時間を浪費したりするのを防ぎます。
  • 除外パラメータ:不要なトラッキングパラメータ(?utm_sourceなど)をフィルタリングし、重複URLを減らします。

2. ネットワークの安定性をテスト

  • 遅延の要件:ターゲットサイトへの遅延が100ms以内であることが理想的です(「ping ドメイン名」コマンドでテスト)。
    • 遅延 ≤ 100ms:毎秒20-30URLをクロール可能。
    • 遅延 100-200ms:毎秒10-15URL。
    • 遅延 > 200ms:毎秒10URL未満。クロール時間が倍増します。
  • 干渉を避ける:VPN、アクセラレーター、ダウンロードツールをオフにします(実測:ダウンロードソフト起動中、速度が60%低下しました)。

3. ターゲットサイトがアクセス可能か確認

  • ブラウザで直接ターゲットURLを入力し、正常に開けるか確認します(「403 Forbidden」ページをクロールしないようにするため)。
  • ログイン制限がある場合(会員制システムなど)、事前にログアウトしてください(Screaming Frogはログイン状態を処理できず、空白ページや403エラーを取得します)。

4つの操作ステップ、10分で結果を取得

1. ターゲットURLを入力

  • 形式の要件:必ずフルURL(http:// または https:// を含む)を入力してください。そうしないと「無効なURL」エラーが出ます。
    • 例:正しい入力「https://www.example.com」、誤った入力「example.com」。
  • 複数ドメインの処理:関連する複数のドメイン(wwwとモバイルサイトなど)をクロールする場合、それぞれ別々に開始する必要があります。

2. 制限条件の設定(オプションですが推奨)

  • クロール件数制限:「Configuration → Spider」で「Limit number of URLs to crawl」にチェックを入れ、数値を入力します。
  • 特定ページの除外:「Configuration → Exclude」で「/admin/」などの管理画面を除外ルールに追加します。

3. 「Start」をクリックし、リアルタイムの状態を観察

  • 進捗バー:上部のバーで全体の進捗を確認(緑=正常、黄=低速、赤=停止)。
  • ステータスバー:右下に「取得済みX件、待機中Y件、速度Z件/秒」が表示されます。

4. 途中のトラブル処理

  • 動かなくなった場合:ネットワークを確認し、改善しない場合は「Stop」を押して10秒待ってから再開してください。また、ユーザーエージェントを「Bingbot」に変更すると制限を回避できる場合があります。

クロール完了

完了のヒントが表示されたら、データ品質を確認するために以下の3点を行ってください:

1. 総取得件数が妥当か確認

  • 中小サイト(100ページ以内)は通常50-200件、中大規模サイト(1000ページ以内)は500-3000件程度が目安です。
  • 取得数が0の場合は、URL形式やブロック設定(robots.txtなど)を確認してください。

2. 重要ページが取得されているか確認

  • 「Internal」メニューでページのキーワード(例:「製品」「会社概要」)を検索し、結果にあるか確認します。

3. 大量のエラーステータスコードがないか確認

  • 404(死線)、500(サーバーエラー)、301/302(リダイレクト)を重点的にチェックします。

SEOレポートの読み解き(重要な6項目)

SEOの世界では「データは嘘をつかない」と言われますが、Screaming Frogの多くのレポートの中でも、Googleのランキングに影響する情報は主に6つのレポートに集約されます。

統計によると、これら6つの問題を解決するだけで、コンテンツ制作を増やさなくても、中小サイトのインデックス率は65%から85%に向上し、自然検索トラフィックは平均20%増加します。

レスポンスステータスコード・レポート

各ページのHTTPステータスコードを記録します。ステータスコードが正しくないと、クローラーはページをスキップする可能性があります

主要データと操作

  • 200 (正常):全体の85%以上を目指すべきです。
  • 404 (デッドリンク):リンク切れURLを抽出し、リンク元の修正または301リダイレクトを設定します。
  • 301/302 (リダイレクト):5%を超える場合は要注意です。
  • 500 (サーバーエラー):3%を超える場合は技術的な調査が必要です。

URLの長さと構造レポート

Googleクローラーの長いURLに対する「忍耐」は限られています。URLが長いほど、完全にクロールされる確率が下がります

主要データと操作

  • 100文字を超えるURLを抽出し、パスを短縮(80文字以内が理想)します。
  • 3つ以上の動的パラメータを持つURLは、静的なリンクに置き換えるかパラメータを整理します。

タイトルタグ・レポート

タイトルはGoogleがページテーマを判断する核心です。重複や無効なタイトルはランキングを直接低下させます

主要データと操作

  • 重複タイトルを抽出し、各ページに固有のタイトル(例:「製品名-ブランド名」)を付けます。
  • 長さは50〜60文字程度が理想的です。長すぎるものは省略されるため短縮します。

メタディスクリプション・レポート

ランキングに直接は影響しませんが、ユーザーがクリックするかどうかを左右します

主要データと操作

  • 未設定のページには、150〜160文字程度で内容を記述します。
  • 短すぎたり、長すぎて省略されたりしているものを最適化し、ユーザーの関心を引く情報を盛り込みます。

H1タグ・レポート

H1はページの主見出しであり、GoogleはH1からページの核心を判断します(1ページに1つが原則です)。

主要データと操作

  • H1がないページや、複数学るページを修正します。
  • H1の内容がコンテンツと一致しているか確認し、核心となる訴求ポイントを記述します。

画像Alt属性レポート

Alt属性は画像のテキスト説明です。不足していたりキーワードを詰め込みすぎたりすると、画像検索のトラフィックを逃します

主要データと操作

  • Altテキストがない画像に具体的な説明(例:「赤いスニーカーの側面写真」)を追加します。
  • キーワードの不自然な羅列を避け、自然な文章に修正します。

内部リンク問題の一括チェック

統計によると、内部リンクをチェックしていないサイトでは、平均15-20%のページがリンクの問題で効率的にインデックスされていません。これらを解消することでクロール量は30%以上向上します。

デッドリンクの内部リンク

デッドリンクは404エラーに繋がります。ユーザーの離脱を招き、クローラーもそのページへの訪問を減らしてしまいます

操作

  • 「Internal」レポートで「Status Code」が404のものを抽出。
  • リンク元を特定し、リンクを削除するか、有効なURLに差し替える、または301リダイレクトを設定します。

孤立したページ (Orphan Pages)

どの内部リンクも向けられていないページです。これらはGoogleに見つけてもらえる確率が60%低下します

操作

  • 「Indexability」レポートで「Linked From = 0」のものを抽出。
  • 価値のあるページであれば、カテゴリページや関連記事からリンクを貼ります。価値がなければ削除を検討してください。

リンクジュースの集中と分散

トップページにリンクが多すぎると、クローラーの注意が分散し、他の重要なページ(製品ページやブログ記事)の取得機会が減ります

操作

  • 「Internal」レポートで「Outgoing Links」が多い順に並べ替えます。
  • 重要でないリンクをフッターに移動したり整理したりして、主要なコンテンツへリンクが集まるように調整します。

一括処理の3つのコツ

  1. Excelで頻出問題を絞り込む:データをエクスポートし、共通の修正が必要な箇所を見つけます。
  2. 権威性の高いページのリンクから優先的に修正:トップページやカテゴリページのリンク修正は影響範囲が広いため優先します。
  3. 定期的な再チェック:2週間に一度はクロールを行い、新たな問題が発生していないか確認しましょう。

最後に、ツールはあくまで補助です。Googleランキングの核心は常に「ユーザーが必要とするコンテンツ」です。

滚动至顶部