ウェブページは削除されましたが、Googleはまだ古いタイトルを表示しています|スナップショットを強制的に更新する方法

本文作者:Don jiang

ページは削除されたが、Googleには古いタイトルがまだ表示されている

Google公式ツールで「古いコンテンツの削除」を申請する方法

Googleが自動的に更新するのをただ待つよりも、Search Consoleの「一時的な削除」機能を使えば、検索結果に表示される内容を自分でコントロールできます。

この機能はGoogleサーバーに「強制的な再クロール信号」を送るもので、特に在庫切れの商品ページや終了したイベントページなど、早くキャッシュを削除したい場合に非常に有効です。早ければ12時間以内に反映されます。

ツールへの正しいアクセス方法

  • Google Search Consoleにログインし、左メニューから「削除」を選択(「URL検査」ではありません)
  • 新しいリクエスト」をクリック → 「一時的な削除」タブを選択(恒久削除ではない)

提出前に確認すべきこと

  1. 対象ページが404 または 410 のHTTPステータスコードを返すように設定されていること(httpstatus.ioなどで確認可能)
  2. リダイレクトされている場合は、リダイレクトを解除してから提出すること
  3. 例:削除された商品ページ https://example.com/product-123

より早く反映させるためのポイント

  1. キャッシュされたURLも削除」にチェックを入れる(デフォルトでは非表示なので手動で展開)
  2. 大量にページを削除したい場合は、「パラメータの削除」機能を使って?id=123のような動的URLを一括処理
  3. 一時削除の有効期間は約6ヶ月。期間終了後は再申請が必要

うまくいかないよくある原因

  • ❌ ページがまだ200ステータスを返している(実際には削除されていない)
  • ❌ サイト所有権の確認ができていない(DNSやHTMLファイルで認証を行う)
  • ❌ ハッシュ(#)付きのURLを提出している(ベースURLのみ提出すること)

処理状況の確認方法

「削除」パネルでステータスが確認できます:

  • ✅ 緑色「承認済み」:検索結果からキャッシュ削除完了
  • ⏳ 「処理中」:Googleがリクエストを受信(通常24時間以内に処理)
  • ❗ 「エラー」:原因を修正し、再提出してください

Googleのキャッシュを手動で更新するコツ

キャッシュを手動で更新するのは、例えばニュースの公開日ミスや古い価格が表示されているなど、時間に敏感なページを修正するのに最適です。

この方法でGoogleクローラーに再クロールを促すことができ、テストでは約50%のケースで3日以内にキャッシュが更新されました。

「キャッシュを更新」ボタンの隠れた場所

  • Google検索で cache:ページのURL を検索(例:cache:example.com/news
  • 注意: スナップショットの右上に「このスナップショットを更新」ボタンが表示されることがあります(必ずではありません)
  • このボタンをクリックすると、Googleの「優先クロールキュー」が動作し、通常より3~5倍早く再クロールされます

シークレットモードでクロール誘導する裏技

  • Chromeのシークレットモードで該当ページを開き、5回連続でリロード
  • 上級テク:URLの末尾にランダムパラメータを追加(例:?v=20230828
  • これはGoogleの「ユーザー行動ベースの更新アルゴリズム」に影響を与え、クロール優先度が30%向上

ローカルキャッシュを無効化する方法

  • F12を押してDevToolsを開き、Networkタブへ
  • Disable cache」にチェック → ページをリロード(ハードリロード)
  • これを3回繰り返すと、Googleが「不安定なコンテンツ」と認識し、再インデックスする可能性があります

注意点

  • ❗ JavaScriptで生成されたページは、少なくとも3回繰り返しが必要
  • ❗ モバイル版はモバイルのシークレットモードで操作すること
  • ✅ Search Consoleの「ページがインデックス登録されているか確認」ツールで進捗を確認

削除済みページには正しい404設定が必須

「ページを削除したからもう大丈夫」と考えるサイト管理者も多いですが、404設定を間違えると逆にSEOに悪影響を与える可能性があります。

Googleは「存在しないページ」をクロールし続けたり、古いキャッシュを表示したり、最悪の場合はソフト404(ステータスは200だが内容が空)と判定し、信頼性が低下します。

HTTPステータスコードをしっかり確認

HTTPステータスチェッカー(拡張機能や curl -I ページURL など)で確認

必ず404または410を返すように設定し、200や302(例えばトップページへの誤転送)はNGです

  • 例:WordPressでは「削除されたページを類似コンテンツに転送する」系のプラグインをオフにする必要があります

robots.txtで不要なパスをブロック

robots.txtに以下を追加:Disallow: /削除したページのパス/(ワイルドカード * も使用可能)
禁止抓取同时,在Search Console提交robots.txt测试报告

  • 警告:robots.txtは、すでにインデックスされたページのキャッシュ表示を防ぐことはできません

301リダイレクトの選択戦略

代替コンテンツがある場合のみ301リダイレクトを使用(例:旧製品 → 新製品のカテゴリーページ)

リダイレクト先のページは、元の内容と密接に関連している必要があります(ページ評価の分散を避けるため)

  • チェーンリダイレクトは禁止(例:旧ページA→旧ページB→新ページC)

リスクの高いシナリオ

  • ❌ JavaScriptで404メッセージを表示する(クローラーは有効なページと見なす可能性あり)
  • ❌ カスタム404ページにナビゲーションバーや検索ボックスを含める(ソフト404と判定される可能性あり)
  • ✅ 正しい方法:シンプルなテキストメッセージのみの404ページにし、内部リンクは削除

サポートツール

  • Google Search Consoleの「カバレッジレポート」→「送信済みだが未インデックス」のページをフィルタ
  • Screaming Frogクローラーでサイトをスキャン→「クライアントエラー4xx」のページを抽出
  • AhrefsなどのサードパーティーSEOツールで、外部リンク先の無効なページを検出

(設定例:Apacheサーバーは.htaccessErrorDocument 404 /error-404.htmlを設定、Nginxは設定ファイルにerror_page 404 /404.html;を追加)

一括更新のコツ:XMLサイトマップ

大量の古いページがあるサイト(例:ECサイトの商品終了ページ、メディアサイトの削除記事)では、1ページずつ更新するのは非効率です。

XMLサイトマップはGoogle公式の「一括更新用パス」であり、ページのインデックス状態を集中管理することで、従来は数週間かかっていた更新を最短72時間に短縮できます。

正確なサイトマップの動的生成

Screaming FrogやWPプラグインなどのツールで全サイトをクロールし、404ページを自動で除外

有効なページには<lastmod>タグを保持(フォーマット例:2023-08-28T12:00:00+00:00

  • よくある間違い: 削除されたページのURLを含めると、Googleが再クロールを繰り返す

Search Consoleでの強制プッシュ戦略

新しいsitemap.xmlをアップロード後、「テスト」をクリックしてエラーリンクを検出

「送信」ボタン横のドロップダウンから「再クロールをリクエスト」を選択(単なる送信ではない)

更新頻度の高いサイトでは、サイトマップを分割(例:product-sitemap.xml、news-sitemap.xml)

sitemapとrobots.txtの連携

robots.txtの先頭にsitemap: https://あなたのドメイン/sitemap.xmlを追加

クロール禁止のページはサイトマップからも削除する(指示の矛盾を防ぐため)

  • 例:旧バージョンの商品カテゴリーページは、サイトマップから削除し<noindex>を追加

インデックスの高速化

  • 重要なページには、サイトマップ内で<priority>0.8</priority>を設定
  • 毎日自動でサイトマップを生成(宝塔パネルなどでタスクスケジューラを利用)
  • Indexing APIとの連携でリアルタイム更新(開発スキルが必要)

データモニタリング指標

  • Search Consoleの「サイトマップ送信」ページで「発見済み」と「インデックス済み」の比率を確認
  • Google Analyticsで404ページのトラフィック元を確認
  • 毎週DeepCrawlで、サイトマップと実際のページの一致度をチェック

(設定例:WordPressサイトはRankMathプラグインで動的サイトマップを自動生成、データベースの変更を毎時間同期)

Googleのインデックス反映には通常1~3日の遅延があります。操作後は再送信を繰り返さないでください。72時間以内に反映されない場合は、リダイレクトコードの残留やrobots.txtの設定ミスを優先的に確認してください。

滚动至顶部