微信客服
Telegram:guangsuan
电话联系:18928809533
发送邮件:[email protected]

Comment utiliser Screaming Frog pour le SEO | Guide 2025

本文作者:Don jiang
Tous ceux qui font du SEO Google savent que les outils sont le levier de l’efficacité. Prenons l’exemple de Screaming Frog : cet outil de crawling peut accomplir en 20 minutes la charge de travail de 8 heures d’un humain. Il peut parcourir chaque URL de votre site et localiser avec précision 80 à 120 problèmes SEO courants (tels que les liens morts 404, les titres dupliqués ou les images sans attribut Alt).Cet article vous accompagne de l’installation au paramétrage jusqu’à l’exploitation des données, transformant Screaming Frog en votre “microscope SEO”.

Comment utiliser Screaming Frog pour le SEO

Installation et paramétrages de base

L’installation de Screaming Frog ressemble à une opération simple de “quelques clics sur Suivant”, mais certains utilisateurs rapportent que le fait de ne pas faire attention à la compatibilité système lors de l’installation a rendu la version Mac poussive, avec une vitesse de crawl 40 % plus lente que la normale.

D’autres ont réglé la profondeur de crawl de manière aléatoire, ce qui a eu pour résultat qu’un petit site mettait plus de 2 heures sans avoir fini de capturer les pages clés.

Préparation avant l’installation

1. Compatibilité du système
Screaming Frog supporte Windows 10/11 (64 bits) et macOS 10.15 ou version supérieure. Si votre ordinateur tourne sous Windows 7 ou macOS 10.14, le téléchargement du package affichera “incompatible”, et forcer l’exécution pourrait provoquer des plantages (le taux de plantage mesuré pour les utilisateurs de Win7 est d’environ 35 %).

2. Problèmes d’autorisation

  • Windows : Il est conseillé d’installer avec un compte administrateur (clic droit sur le package → “Exécuter en tant qu’administrateur”), sinon l’écriture des données de crawl pourrait échouer par manque de droits (erreur courante : “Impossible d’enregistrer le fichier journal”).
  • Mac : Faut-il désactiver la “Protection de l’intégrité du système” (SIP) ? Non, mais lors de la première exécution, vous devrez peut-être cliquer sur “Ouvrir quand même” dans “Préférences Système → Sécurité et confidentialité”, sinon il sera bloqué (environ 20 % des utilisateurs Mac bloquent à cette étape).

3. Environnement réseau
Fermez les logiciels de proxy (tels que VPN, accélérateurs) avant le crawl. Une latence réseau locale supérieure à 200 ms entraînera une chute de la vitesse de crawl de 50 % (Test réel : avec 200 ms de latence, 10 URL crawlées par seconde ; avec 50 ms de latence, 25 URL par seconde).

Installation officielle

Système Windows

  1. Visitez le site officiel de Screaming Frog (www.screamingfrog.co.uk), cliquez sur “Download Free Version” (la version gratuite suffit pour les sites de petite et moyenne taille) ;
  2. Choisissez “Windows Installer”, puis double-cliquez pour lancer après le téléchargement ;
  3. Suivez les instructions pour choisir le chemin d’installation (le disque C par défaut est recommandé pour éviter la perte de fichiers de configuration ultérieurs), cochez “Créer un raccourci sur le bureau”, puis cliquez sur “Installer” ;
  4. Une fois l’installation terminée, une icône d’araignée verte apparaîtra sur le bureau, double-cliquez pour l’ouvrir.

Système macOS

  • Téléchargez également sur le site officiel, choisissez “macOS DMG” ;
  • Double-cliquez sur le fichier .dmg téléchargé, faites glisser l’icône “Screaming Frog SEO Spider” dans le dossier “Applications” ;
  • Lors de la première ouverture, le système peut indiquer “Impossible d’ouvrir car provient d’un développeur non identifié”, allez dans “Préférences Système → Sécurité et confidentialité”, et cliquez sur “Ouvrir quand même”.

4 Paramétrages de base

Après l’installation, la première ouverture du logiciel nécessite de configurer les paramètres de l’araignée (“Spider”).

Si le paramétrage est erroné, les données crawlées ultérieurement pourraient être totalement inutiles.

Agent Utilisateur (User Agent)

  • Rôle : Dire au serveur du site “qui je suis”. L’agent utilisateur du robot Google est “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”.
  • Méthode de réglage : Cliquez sur le menu supérieur [Configuration → Spider], et dans la liste déroulante “User Agent”, choisissez “Googlebot” (par défaut “Screaming Frog”).
  • Pourquoi c’est important : Si vous utilisez l’agent par défaut, certains sites bloqueront le robot (par exemple avec “Disallow: /screamingfrog”), empêchant la capture du contenu ; utiliser “Googlebot” permet de simuler le vrai robot Google et d’obtenir des données plus proches de la réalité (Test réel : après le basculement, le taux de réussite d’un site e-commerce est passé de 65 % à 92 %).

Profondeur de Crawl (Crawl Depth)

  • Définition : À partir de la page d’accueil, combien de niveaux de clics maximum faut-il suivre (ex: Accueil → Page catégorie → Page produit = 3 niveaux).
  • Conseils de réglage :
    • Sites petits/moyens (≤1000 pages) : réglez sur 5 niveaux (couvre plus de 90 % des pages clés) ;
    • Grands sites (>1000 pages) : réglez sur 10 niveaux, mais couplez cela avec la “limite du nombre d’URL” pour éviter une durée trop longue (10 niveaux peuvent faire passer le temps de crawl de 10 minutes à 1 heure).

Limiter le nombre d’URL (Max URLs to Crawl)

  • Rôle : Empêcher le logiciel de crawler indéfiniment à cause d’un trop grand nombre de liens (ex: forums, pages à défilement infini).
  • Méthode de réglage : Dans [Configuration → Spider], cochez “Limit number of URLs to crawl” et entrez une valeur (5000-10000 pour les petits sites, pas plus de 50 000 pour les grands).
  • Conséquence de l’absence de limite : Un utilisateur a crawlé un site e-commerce avec des liens dynamiques de “produits recommandés”. Sans limite, le logiciel a tourné pendant 24 heures pour capturer 230 000 URL (dont 80 % étaient des pages produits dupliquées).

Paramètres d’exclusion (Exclude Parameters)

  • Problème : De nombreux sites ont des URL avec des paramètres superflus (ex: ?utm_source=weibo, ?page=2). Ces paramètres n’affectent pas le contenu mais sont reconnus par Screaming Frog comme des URL différentes, causant des crawls redondants.
  • Méthode de réglage : Cliquez sur [Configuration → Exclude], et dans “Query Parameters”, entrez les paramètres à filtrer (séparés par des virgules), ex: “utm_source,utm_medium,page”.
  • Effet : Un site éducatif a filtré 12 paramètres de suivi, réduisant le nombre d’URL de 12 000 à 4 500 et le temps de crawl de 40 %.

Lancer un “mini-crawl” avec la page d’accueil

Une fois configuré, ne vous précipitez pas pour crawler tout le site — entrez d’abord l’URL de l’accueil et lancez un test à petite échelle (limité à 100 URL) pour vérifier 3 points :

  1. Oubli de pages clés : Vérifiez si “À propos” ou “Contact” dans la navigation principale ont été capturés (recherchez les mots-clés dans le rapport “Internal”) ;
  2. URL en double : Dans le rapport “URL”, voyez s’il existe différentes versions de paramètres pour la même page ;
  3. Déclenchement de 404 : Vérifiez les codes d’état 404 dans “Response Codes” pour confirmer qu’aucune page supprimée n’est crawlée.

Lancer rapidement un crawl de base

Beaucoup pensent que “Cliquer sur Démarrer” résume tout le crawl, mais en réalité 30 % des gens obtiennent des données invalides en ignorant les détails.

3 vérifications avant le démarrage

1. Confirmer que les réglages de base sont faits

  • User Agent : Doit être réglé sur “Googlebot”, sinon vous pourriez être bloqué par le site.
  • Profondeur : Ajustez selon la taille du site pour ne pas manquer de pages ou perdre du temps.
  • Exclusion de paramètres : Filtrez les paramètres de suivi inutiles pour réduire les URL dupliquées.

2. Tester la stabilité du réseau

  • Exigence de latence : La latence entre vous et le site cible devrait idéalement être ≤100 ms.
  • Éviter les interférences : Fermez VPN, accélérateurs ou outils de téléchargement.

3. Confirmer l’accessibilité du site cible

  • Entrez directement l’URL cible dans le navigateur pour vérifier qu’elle s’ouvre normalement.

Opération en 4 étapes, résultats en 10 minutes

1. Saisir l’URL cible (Format complet avec http/https obligatoire).
2. Définir les conditions de limitation (Optionnel mais recommandé).
3. Cliquer sur “Démarrer”, observer l’état en temps réel.
4. Gestion des problèmes en cours de route.

Interprétation des rapports SEO (Focus sur ces 6 points)

Les experts SEO disent souvent que “les données ne mentent pas”, mais parmi les dizaines de rapports de Screaming Frog, les informations influençant le classement Google se trouvent dans ces 6 rapports.

Rapport des codes de réponse

Ce rapport enregistre le code d’état HTTP de chaque page. Si le code est incorrect, les robots pourraient tout simplement ignorer votre page.

  • 200 (Normal) : Doit être >85 %.
  • 404 (Lien mort) : Exportez la liste et supprimez les liens ou faites des redirections 301.
  • 301/302 (Redirection) : Soyez vigilant si cela dépasse 5 %.

Rapport sur la longueur et la structure des URL

La “patience” des robots Google pour les URL longues est limitée. Plus l’URL est longue, plus la probabilité qu’elle soit entièrement capturée est faible.

Rapport sur les balises de titre (Title Tags)

Le titre est la base principale de Google pour juger du sujet d’une page. Des titres dupliqués ou invalides feront baisser directement votre classement.

Rapport sur les méta descriptions

La méta description n’influence pas directement le classement, mais détermine si l’utilisateur clique sur votre page.

Rapport sur les balises H1

Le H1 est le titre principal de la page. Google utilise le H1 pour juger du contenu central (il est préférable de n’avoir qu’un seul H1 par page).

Rapport sur les attributs Alt des images

L’attribut Alt est la description textuelle d’une image. Une absence d’Alt ou un bourrage de mots-clés gaspillera le trafic de recherche d’images.

Vérification groupée des problèmes de liens internes

Nous avons calculé que les sites qui ne vérifient pas leurs liens internes ont en moyenne 15 à 20 % de pages mal indexées.

Liens internes morts

Ce sont des liens dans vos pages pointant vers des pages supprimées (404). L’utilisateur quitte immédiatement le site en cliquant dessus, et les robots réduisent leur crawl s’ils rencontrent trop de 404.

Pages orphelines

Une page orpheline est une page qui contient du contenu mais vers laquelle aucun lien interne ne pointe. La probabilité d’indexation est 60 % plus faible que pour une page liée.

Concentration du poids (Link Juice)

Cela arrive quand l’accueil ou quelques pages clés ont trop de liens, dispersant l’énergie des robots.

Enfin, l’outil n’est qu’une aide ; le cœur du classement Google restera toujours “le contenu dont l’utilisateur a besoin”.

滚动至顶部