微信客服
Telegram:guangsuan
电话联系:18928809533
发送邮件:[email protected]

Screaming Frogを使ったSEOの方法|2025年版使用ガイド

本文作者:Don jiang

Google SEOに携わる人なら誰でも、ツールが効率化のレバーであることを知っています。Screaming Frogを例にとると、このクローラーツールは人間が8時間かかる作業量を20分以内に完了させることができます。サイトのすべてのURLをクロールし、80〜120個の一般的なSEOの問題404デッドリンク、タイトルの重複、Alt属性のない画像など)を正確に特定します。

この記事では、インストール設定からデータの活用まで、Screaming Frogをあなたの「SEO顕微鏡」に変える方法を解説します。

Screaming Frogを使用したSEOの方法

インストールと基本設定

Screaming Frogのインストールは「次へを数回クリックするだけ」の簡単な操作に思えますが、インストール時にシステムの互換性に注意を払わなかったために、Mac版の動作が重くなり、クロール速度が通常より40%遅くなったという報告もあります。

また、クロール深度を適当に設定した結果、小規模なサイトなのに2時間経っても主要なページを掴みきれなかったというケースもあります。

インストール前の準備

1. システムの互換性

Screaming Frogは、Windows 10/11(64ビット)およびmacOS 10.15以降をサポートしています。Windows 7やmacOS 10.14の場合、インストーラーを直接ダウンロードすると「互換性なし」と表示され、無理に実行するとクラッシュする可能性があります(実測:Win7ユーザーのクラッシュ率は約35%)。

2. 権限の問題

  • Windows:管理者アカウントでのインストールを推奨します(インストーラーを右クリック→「管理者として実行」)。そうしないと、権限不足でクロールデータが書き込めない場合があります(一般的なエラー:「ログファイルを保存できません」)。
  • Mac:「システム整合性保護」(SIP)を無効にする必要はありませんが、初回実行時に「システム環境設定 → セキュリティとプライバシー」で「このまま開く」をクリックする必要がある場合があります(Macユーザーの約20%がこのステップで躓きます)。

3. ネットワーク環境

クロール前にプロキシソフトウェア(VPNやアクセラレータなど)をオフにしてください。ローカルネットワークの遅延が200msを超えると、クロール速度が50%低下します(実測:200msの遅延で毎秒10件、50msの遅延で毎秒25件)。

正式なインストール

Windowsシステム

  1. Screaming Frog公式サイト(www.screamingfrog.co.uk)にアクセスし、「Download Free Version」をクリックします(無料版でも中小規模サイトには十分です)。
  2. 「Windows Installer」を選択し、ダウンロード完了後にダブルクリックして実行します。
  3. 指示に従ってインストール先を選択し(設定ファイルの紛失を避けるためデフォルトのCドライブを推奨)、「デスクトップにショートカットを作成」にチェックを入れて「インストール」をクリックします。
  4. インストール完了後、デスクトップに緑色のクモのアイコンが表示されるので、ダブルクリックして開きます。

macOSシステム

  • 公式サイトから「macOS DMG」を選択してダウンロードします。
  • ダウンロードした.dmgファイルをダブルクリックし、「Screaming Frog SEO Spider」アイコンを「アプリケーション」フォルダにドラッグします。
  • 初回起動時、システムが「開発元を確認できないため開けません」と表示した場合は、「システム環境設定 → セキュリティとプライバシー」で「このまま開く」をクリックしてください。

4つの基本設定

インストール後、初めてソフトを開く際は「スパイダー」(Spider)のパラメータを設定する必要があります。

設定を間違えると、その後のクロールデータがすべて無駄になる可能性があります。

ユーザーエージェント (User Agent)

  • 役割:Webサイトのサーバーに「私は誰か」を伝えます。Googleクローラーのユーザーエージェントは「Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)」です。
  • 設定方法:上部メニューの「Configuration → Spider」をクリックし、「User Agent」ドロップダウンから「Googlebot」を選択します(デフォルトは「Screaming Frog」)。
  • なぜ重要か:デフォルトの「Screaming Frog」を使用すると、一部のサイトでクローラーがブロックされ(例:「Disallow: /screamingfrog」)、コンテンツを取得できない場合があります。「Googlebot」を使用することで、実際のGoogleクローラーをシミュレートし、より実態に近いデータを取得できます(実測:切り替え後、あるECサイトのクロール成功率が65%から92%に向上しました)。

クロール深度 (Crawl Depth)

  • 定義:トップページからリンクを何階層まで辿るか(例:トップ → カテゴリ → 製品ページは3階層)。
  • 設定の目安
    • 中小規模サイト(ページ数1000以下):5階層に設定(主要ページの90%以上をカバー)。
    • 大規模サイト(ページ数1000超):10階層に設定しますが、クロール時間が長くなりすぎるのを防ぐため、後述の「クロール件数の制限」と併用してください(10階層にすると、時間が10分から1時間に延びる場合があります)。

クロール件数の制限 (Max URLs to Crawl)

  • 役割:リンクが多すぎるサイト(フォーラムや無限スクロールページなど)で、ソフトが停止せずにクロールし続けるのを防ぎます。
  • 設定方法:「Configuration → Spider」で「Limit number of URLs to crawl」にチェックを入れ、具体的な数値を入力します(中小規模なら5000〜10000件、大規模でも5万件以下を推奨)。
  • 設定しない場合の結果:あるユーザーが「おすすめ商品」の動的リンクを持つECサイトを制限なしでクロールしたところ、24時間稼働し続け、最終的に23万件のURL(その80%は重複した商品詳細ページ)を取得してしまいました。

除外パラメータ (Exclude Parameters)

  • 問題点:多くのサイトのURLには不要なパラメータ(例:?utm_source=weibo, ?page=2)が含まれています。これらはコンテンツに影響しませんが、Screaming Frogは別のURLとして認識し、重複クロールの原因になります。
  • 設定方法:「Configuration → Exclude」をクリックし、「Query Parameters」にフィルタリングしたいパラメータをカンマ区切りで入力します(例:「utm_source,utm_medium,page」)。
  • 効果:ある教育系サイトで12個のトラッキングパラメータをフィルタリングしたところ、クロールされたURL数が1.2万件から4500件に減り、時間は40%短縮されました。

トップページで一度「テストクロール」を行う

設定が終わっても、いきなり全サイトをクロールしないでください。まずはトップページのURLを入力し、「件数制限100件」で小規模テストを行い、以下の3点を確認してください:

  1. 主要なページが漏れていないか:例えば「会社概要」「お問い合わせ」などが取得されているか(「Internal」レポートでキーワード検索)。
  2. 重複URLがないか:「URL」レポートで、同じページの異なるパラメータ版(例:「/product」と「/product?color=red」)が混じっていないか。
  3. 404エラーが発生していないか:「Response Codes」で404ステータスを確認し、削除済みのページがクロールされていないか確認します。

問題があれば「Configuration」に戻り、パラメータを調整(深度を増やす、除外パラメータを補足するなど)して再テストしてください。

基礎的なクロールを素早く開始する

「スタートをクリックするだけ」と思われがちですが、実際には細部を無視したためにデータが無効になる人が3割います。

例えば、ネットワークを確認せずに開始して遅延でフリーズしたり、制限を設けずに2時間も重複ページを掴み続けたり、URL形式を間違えて「結果0件」になったりするケースです。

開始前の3つのチェック

1. 基本設定の完了確認

  • ユーザーエージェント:必ず「Googlebot」に設定されているか確認してください。設定しないとサイトからブロックされる可能性があります(実測:未設定時の成功率45%に対し、設定後は90%に向上)。
  • クロール深度:サイトの規模に合わせて調整し、主要ページの漏れや時間の浪費を防ぎます。
  • 除外パラメータ:不要なトラッキングパラメータを除去し、重複URLを減らします。

2. ネットワークの安定性テスト

  • 遅延の要件:ターゲットサイトへの遅延が100ms以下であることが理想的です(「ping ドメイン名」コマンドでテスト)。
    • 100ms以下:秒間20〜30件のクロールが可能。
    • 100〜200ms:秒間10〜15件。
    • 200ms超:秒間10件未満となり、時間が倍増します。
  • 干渉を避ける:VPNやダウンロードソフトをオフにしてください(実測:ダウンロードソフト稼働時は速度が60%低下します)。

3. ターゲットサイトへのアクセス確認

  • ブラウザでURLを入力し、正常に開けるか確認してください(403エラーを避けるため)。
  • ログイン制限がある場合、事前にログアウトしてください(ログイン状態は処理できず、空白ページや403エラーになるため)。

4つのステップで10分以内に結果を出す

1. ターゲットURLの入力

  • 形式のルール:必ずフルURL(http:// または https:// を含む)を入力してください。
    • 例:正しいのは「https://www.example.com」、間違いは「www.example.com」など。
  • 複数ドメイン:wwwとモバイル版など複数のドメインがある場合は、それぞれ別々に開始してください。

2. 制限条件の設定(推奨)

  • 件数制限:「Configuration → Spider」で「Limit number of URLs to crawl」にチェックを入れ、数値を入力します。
    • 目的:動的リンクによる無限クロールを防ぐためです。
  • 特定ページの除外:「Configuration → Exclude」でDisallowルール(例:管理画面など)を追加します。

3. 「スタート」をクリックし、リアルタイム状況を監視

  • 進捗バー:上部のバーで全体の進捗を確認(緑=正常、黄=低下、赤=停止)。
  • ステータス欄:右下の「クロール済みX件、残りY件、速度Z件/秒」を確認。
    • 正常時:秒間10〜30件(低遅延時)。
    • 異常時:速度が急激に0や1になった場合は、サーバー制限やネットワークの問題が考えられます。

4. 途中のトラブル対応

  • 止まって動かない場合
    • ネットワークの再チェック。
    • 手動停止:一度「Stop」を押し、10秒待って再開します。
    • 制限の回避:403エラーが出る場合は、ユーザーエージェントを「Bingbot」に変更してみてください(制限が緩い場合があります)。

クロール完了

完了後、データの品質を3つのポイントで確認します:

1. 総件数が妥当か

  • 目安:100ページ以下のサイトなら50〜200件、1000ページ以下なら500〜3000件程度が一般的です。
  • 異常なケース
    • 0件:形式ミス、ネットワーク切断、またはGooglebotがブロックされています。
    • 予想より極端に少ない:深度が浅すぎるか、robots.txtでブロックされています。

2. 主要ページが取得されているか

3. 大量のエラーステータスがないか

  • 重要項目
    • 404:10件以上ある場合は記録し、修正が必要です。
    • 500:大量にある場合はサーバー側の技術調査が必要です。
    • 301/302:転送先が有効か確認してください。

SEOレポートの読み方(重要な6項目)

SEOの世界では「データは嘘をつかない」と言われますが、Screaming Frogの多くのレポートの中でも、Googleの掲載順位に影響する情報は以下の6つのレポートに集約されます

統計によると、これら6つの問題を解決するだけで(複雑なコンテンツ作成抜きで)、中小サイトのインデックス率は65%から85%に向上し、オーガニックトラフィックは平均20%増加します。

レスポンスステータスレポート

各ページのHTTPステータスコードを記録します。ステータスが正しくないと、クローラーはそのページをスキップしてしまいます

重要データと対応

  • 200 (正常):85%以上を目指します。80%以下の場合は多くのページにエラーがある可能性があります。
  • 404 (デッドリンク):不要ページ削除後のリンク未整理が原因です。
    • 対応:404リストを書き出し、リンク元を確認して削除するか、関連ページへ301リダイレクトを設定します。
  • 301/302 (転送):5%を超える場合は警戒が必要です。
    • 対応:転送先が正しいか確認し、基本的には評価を引き継ぐ301を使用します。

URLの長さと構造レポート

Googleクローラーは長いURLを嫌います。URLが長いほど、完全にクロールされる確率は低くなります

重要データと対応

  • 長さの分布:100文字を超えるURLは短縮を検討してください(理想は80文字以下)。
  • 動的パラメータ:パラメータが3つ以上あるURLが多い場合は最適化が必要です。

タイトルタグレポート

タイトルはGoogleがページテーマを判断する核心です。重複や不適切なタイトルは、直接的に順位を下げます

重要データと対応

  • 重複率:「Duplicate Titles」を抽出し、各ページに一意の識別名を付けます。
  • 長さの分布:理想は50〜60文字程度です(Googleの検索結果で省略されない範囲)。

メタディスクリプションレポート

ディスクリプションは順位に直接影響しませんが、ユーザーがクリックするかどうかを左右します

重要データと対応

  • 欠落率:未設定のページには、150文字程度で魅力的な説明を手動で追加します。

H1タグレポート

H1はページの見出しです。GoogleはH1からページのメインコンテンツを判断します(1ページに1つが理想)。

重要データと対応

  • 数量の異常:H1がない、または複数あるページを修正します。

画像Alt属性レポート

Alt属性は画像のテキスト説明です。Altがない、またはキーワードの詰め込みは、画像検索からの流入機会を逃します

内部リンク問題の一括チェック

統計によれば、内部リンクのチェックを行っていないサイトでは、平均15〜20%のページがリンクの問題で正しくインデックスされていません。これらを修正することで、クロール量は30%以上向上します。

内部デッドリンク

ページ内のリンク先が削除されたページ(404)を指している状態です。ユーザーは離脱し、クローラーも巡回を減らします

孤立ページ

どのページからも内部リンクが貼られていないページです。見つけにくいため、インデックスされる確率が60%低下します

リンク評価の集中

トップページなどにリンクが多すぎると、クローラーのパワーが分散し、他の重要なページ(製品ページやブログ記事など)への巡回機会が減少します

一括処理の3つのコツ

  1. Excelで頻出問題を絞り込む:データをエクスポートし、共通のリンク元(例:全ページ共通のナビ)を特定します。
  2. 権威性の高いページのリンクから優先修正:トップページやカテゴリページの影響は大きいため、優先して対応します。
  3. 定期的な再確認:2週間に一度はクロールし、リンク構造が健全に保たれているか確認します。

最後に、ツールはあくまで補助に過ぎません。Google検索順位の本質は、常に「ユーザーが必要とするコンテンツ」です。

滚动至顶部