Table of Contens
ToggleSoumettre une demande de suppression de contenu obsolète via l’outil officiel de Google
Plutôt que d’attendre passivement que Google mette à jour l’index, la Search Console propose une fonctionnalité très efficace : la suppression temporaire, qui permet de forcer l’actualisation des résultats.
C’est l’équivalent d’un signal de mise à jour immédiate envoyé aux serveurs de Google, idéal pour les pages de produits retirés ou d’événements expirés. Résultat possible en seulement 12 heures.
Accès précis à la fonctionnalité
- Connectez-vous à Google Search Console et sélectionnez « Supprimer » dans le menu de gauche (et non « Inspection d’URL »)
- Cliquez sur « Nouvelle demande » → onglet « Suppression temporaire » (et non suppression permanente)
Conditions requises pour soumettre une page
- La page cible doit retourner un code HTTP 404 ou 410 (vérifiez avec des outils comme httpstatus.io)
- Si la page redirige, supprimez d’abord la redirection
- Exemple : page produit supprimée
https://example.com/product-123
Astuces pratiques pour accélérer le traitement
- Cocher aussi l’option « Effacer l’URL mise en cache » (cachée par défaut, à déplier manuellement)
- Pour plusieurs pages, utilisez « Suppression par paramètre » (ex :
?id=123
) - Durée de validité de la suppression temporaire : environ 6 mois (renouvellement nécessaire ensuite)
Causes fréquentes d’échec
- ❌ La page retourne toujours le code 200 (non réellement supprimée)
- ❌ Propriété du site non vérifiée (à faire via DNS ou fichier HTML)
- ❌ Lien soumis contient un « # » (soumettre l’URL de base uniquement)
Suivi des résultats
Dans l’onglet « Supprimer », vous verrez les statuts suivants :
- ✅ En vert « Approuvé » : la page est masquée des résultats
- ⏳ « En attente » : demande reçue par Google (traitée en général sous 24h)
- ❗ « Erreur » : corrigez les problèmes indiqués puis renvoyez la demande
Astuces pour forcer la mise à jour du cache
Forcer la mise à jour du cache est une méthode directe, idéale pour corriger des erreurs de date de publication ou de prix sur des pages sensibles au temps.
En « trompant » le robot Google, on peut le pousser à réindexer la page. Dans 50 % des cas testés, le cache est mis à jour sous 3 jours.
Chemin caché vers le bouton de mise à jour
- Dans Google, tapez
cache:URLdevotrepage
(ex :cache:example.com/news
) - Important : si un bouton « Mettre à jour ce cache » s’affiche en haut à droite, cliquez dessus (pas toujours visible)
- Cela place la page dans une file de priorisation de crawl par Google
Forcer le recrawl en navigation privée
- Ouvrez la page en mode incognito dans Chrome et rafraîchissez-la 5 fois
- Astuce avancée : ajoutez un paramètre aléatoire dans l’URL, ex :
?v=20230828
- Principe : cela déclenche l’algorithme comportemental de Google, augmentant la priorité de crawl
Manipulation du cache local
- Ouvrez la console du navigateur avec
F12
→ onglet Réseau - Cochez « Désactiver le cache » et rechargez la page (cela contourne le cache local)
- Après 3 tentatives, Google peut percevoir la page comme instable et la re-crawler
Remarques importantes
- ❗ Les pages dynamiques (contenu généré en JavaScript) nécessitent au moins 3 répétitions
- ❗ Pour les versions mobiles, utilisez le mode incognito mobile
- ✅ Utilisez l’outil « Inspection d’URL » dans la Search Console pour suivre l’indexation
Configurer correctement le code 404 pour les pages supprimées
Beaucoup de webmasters pensent qu’« une page supprimée = problème réglé ». Mais une mauvaise configuration du 404 peut aggraver le SEO.
Google peut continuer à explorer une « page fantôme » et conserver son cache. Pire encore, une erreur « soft 404 » (page vide retournant 200) peut nuire à la fiabilité du site.
Vérification rigoureuse du code HTTP
Utilisez une extension de navigateur (ex : HTTP Status) ou une commande curl -I URLdelapage
Code requis : 404 ou 410, pas 200 ou 302 (erreur courante si redirection vers la page d’accueil)
- Exemple : dans WordPress, désactivez les plugins redirigeant automatiquement vers des contenus similaires
Bloquer les anciens chemins via robots.txt
Ajoutez dans robots.txt : Disallow: /chemin-de-la-page-supprimée/
(les jokers *
sont acceptés)
Interdiction de l’exploration tout en soumettant un rapport de test robots.txt dans la Search Console
- Avertissement : le fichier robots.txt ne peut pas empêcher l’affichage du cache des pages déjà indexées
Stratégie de redirection 301
Utiliser une redirection 301 uniquement lorsqu’un contenu de remplacement existe (ex : ancien produit → nouvelle page de catégorie)
La page cible de la redirection doit être fortement liée au sujet de la page d’origine (pour éviter la dilution du PageRank)
- Interdire les redirections en chaîne (ex : ancienne page A → ancienne page B → nouvelle page C)
Scénarios à haut risque
- ❌ Affichage d’une erreur 404 via JavaScript (les robots peuvent encore considérer la page comme valide)
- ❌ Page 404 personnalisée avec barre de navigation ou champ de recherche (risque d’être interprétée comme une “soft 404”)
- ✅ Bonne pratique : une page 404 simple avec message texte uniquement, sans lien interne
Outils complémentaires
- Google Search Console – Rapport de couverture → Filtrer les pages « envoyées mais non indexées »
- Analyse via Screaming Frog → Filtrer les pages “Client Error 4xx”
- Outils SEO tiers (ex : Ahrefs) pour détecter les backlinks pointant vers des pages supprimées
(Exemple de configuration : sur un serveur Apache, ajouter ErrorDocument 404 /error-404.html
dans le fichier .htaccess ; sur Nginx, ajouter error_page 404 /404.html;
dans le fichier de configuration)
Astuce pour mise à jour en masse : plan du site XML
Pour les sites avec de nombreuses pages obsolètes (ex : produits retirés, articles supprimés), la soumission manuelle est inefficace.
Le plan du site XML est un « passeport officiel » reconnu par Google pour la mise à jour en masse, permettant de réduire le délai d’indexation de plusieurs semaines à 72 heures.
Génération dynamique de sitemap précise
Utiliser un outil (Screaming Frog/plugin WordPress) pour crawler le site et exclure automatiquement les pages 404
Conserver la balise <lastmod>
pour les pages valides (format de date : 2023-08-28T12:00:00+00:00
)
- Erreur fréquente : inclure des URLs supprimées déclenche une recrawl inutile par Google
Stratégie de push forcé via Search Console
Après avoir téléchargé le nouveau sitemap.xml, cliquer sur « Tester » pour vérifier les liens erronés
Utiliser le menu déroulant à côté du bouton « Soumettre » pour choisir « Explorer à nouveau » plutôt qu’une simple soumission
Pour les sites à fort volume, scinder le sitemap en plusieurs fichiers (ex : product-sitemap.xml, news-sitemap.xml)
Coordination entre sitemap et robots.txt
Ajouter en première ligne de robots.txt : sitemap: https://votre-domaine.com/sitemap.xml
Les pages bloquées par robots.txt doivent également être supprimées du sitemap (pour éviter les conflits)
- Exemple : une ancienne page de catégorie produit doit être supprimée du sitemap et marquée avec
<noindex>
Accélérer la prise en compte
- Utiliser la balise
<priority>0.8</priority>
dans le sitemap pour les pages prioritaires - Générer automatiquement le sitemap tous les jours (via tâche cron ou outil comme Baota)
- Utiliser l’Indexing API pour mise à jour en temps réel (nécessite des compétences techniques)
Indicateurs de suivi
- Sur la page « Envoi du sitemap » dans Search Console : comparer le nombre de pages « découvertes » et « indexées »
- Utiliser Google Analytics pour analyser le trafic vers les pages 404
- Exécuter DeepCrawl chaque semaine pour comparer les URLs du sitemap aux pages réelles
(Exemple : un site WordPress utilisant le plugin RankMath peut générer automatiquement un sitemap dynamique, synchronisé toutes les heures avec la base de données)
La mise à jour de l’index par Google peut prendre 1 à 3 jours. Ne pas soumettre à plusieurs reprises. Si aucun effet après 72h, vérifier s’il reste du code de redirection ou des blocages robots.txt erronés.