Plus que 3 accompagnements
à partir de 400 € / mois

Réservez votre place

Auditer un site avec Screaming Frog, le guide pratique

Matthieu Texier Par Matthieu Texier
· · 7 min de lecture

La semaine dernière, un client m'envoie un message : son site a perdu 30 % de trafic organique en un mois, sans modification apparente. Je lance Screaming Frog, je crawle les 800 pages du site. En moins d'une heure j'identifie le problème : une migration ratée avait laissé 140 redirections en chaîne et une soixantaine de pages orphelines. Voilà ce que fait cet outil au quotidien dans ma pratique. Ce n'est pas un scanner généraliste : c'est le meilleur outil de crawl que je connaisse pour cartographier rapidement l'état technique d'un site et hiérarchiser ce qui bloque vraiment le référencement. Je vous explique comment je l'utilise, étape par étape.

Configurer Screaming Frog avant de lancer un crawl

La plupart des gens ouvrent l'outil, entrent une URL et cliquent sur Start. C'est une erreur. Un crawl mal configuré produit des données incomplètes, parfois trompeuses. Il prend aussi beaucoup plus de temps que nécessaire.

Dans l'onglet Configuration > Spider, trois zones méritent attention avant chaque session. L'onglet Crawl de Spider contrôle ce que l'outil explore : les types de ressources à inclure, les paramètres d'URL à ignorer, les sous-domaines. L'onglet Extraction détermine les données extraites page par page (balises, hreflang, données structurées). L'onglet Rendering gère le rendu JavaScript : si votre site utilise un framework front-end, allez dans Configuration > Spider > Rendering > JavaScript pour activer le rendu navigateur, sinon Screaming Frog ne verra pas le contenu généré côté client.

Voici les cinq réglages à vérifier avant chaque crawl :

  • Désactiver "Check External Links" dans l'onglet Crawl (sur un site de 2 000 pages, ça divise le temps de crawl par deux)
  • Vérifier que le fichier robots.txt est bien respecté (option "Respect robots.txt" cochée par défaut)
  • Définir un User-Agent clair, par exemple Googlebot, si vous voulez simuler la vue de Google
  • Activer l'extraction des données structurées si le site utilise du balisage Schema.org
  • Limiter la profondeur de crawl à 10 niveaux maximum pour les très grands sites, afin d'éviter les pages satellites sans valeur

Mon conseil le plus utile, après des centaines de crawls : toujours désactiver la vérification des liens externes. C'est un réglage invisible qui peut tripler la durée d'une session sur un site dense en liens sortants.

Lancer le crawl et lire les premiers résultats

Une fois la configuration en place, entrez l'URL de départ dans la barre du haut et cliquez sur Start. Screaming Frog commence à explorer le site page par page, en suivant les liens internes comme le ferait un robot de moteur de recherche.

Pendant le crawl, la fenêtre principale affiche les URLs découvertes en temps réel. Je regarde deux choses immédiatement : le compteur d'URLs et le panneau de gauche. Si le nombre de pages crawlées dépasse largement ce que le site est censé avoir, c'est souvent le signe de paramètres d'URL non filtrés qui multiplient les versions d'une même page.

Une fois le crawl terminé, rendez-vous dans l'onglet Overview en bas à gauche. C'est là que tout se joue. Ce tableau de bord résume les problèmes détectés par catégorie : erreurs (rouge), avertissements (orange) et informations (bleu). Je commence toujours par le rouge. Les erreurs 404, les pages bloquées par le robots.txt, les redirections cassées : ce sont les problèmes qui coûtent des positions maintenant.

Pour trier les priorités, je croise Screaming Frog avec les données de trafic. Les erreurs sur des pages à fort volume organique passent en premier. C'est pour ça que je travaille souvent en parallèle avec d'autres outils d'audit SEO qui apportent la dimension trafic que Screaming Frog seul ne possède pas.

Les 5 rapports Screaming Frog qui comptent vraiment

Screaming Frog détecte plus de 300 types de problèmes SEO dans sa version 23.3. En pratique, cinq rapports concentrent 90 % des actions correctrices que je recommande à mes clients.

RapportOnglet SFCe qu'il révèleAction recommandée
Liens cassésResponse CodesPages renvoyant une erreur 404 ou 410, redirections briséesRediriger en 301 vers l'URL correcte ou supprimer le lien source
Balises title et meta descriptionsPage Titles / Meta DescriptionBalises manquantes, dupliquées ou trop longuesRéécrire en respectant les 60 et 160 caractères
Contenu dupliquéURL / CanonicalsPages en double, canonicals manquants ou mal pointésPoser un canonical correct ou consolider les pages
Images sans altImagesAttributs alt vides ou absentsRédiger un alt descriptif pour chaque image concernée
Structure des URLsSite StructureProfondeur de crawl, pages orphelines, silos cassésRaccourcir les chemins et ajouter des liens internes

Liens cassés et redirections en chaîne

L'onglet Response Codes filtre toutes les URLs par code HTTP. Je trie sur 3XX et 4XX en priorité. Les redirections en chaîne (301 vers 301 vers 301) sont particulièrement coûteuses : chaque saut consomme du budget de crawl et dilue le transfert de popularité. Screaming Frog les identifie nativement dans le rapport Redirects.

Balises title et meta descriptions

Dans l'onglet Page Titles, les colonnes "Missing", "Duplicate" et "Over 60 Characters" pointent directement les pages à traiter. Je trie par ordre de priorité : pages en erreur de duplication d'abord, pages sans title ensuite. Les meta descriptions dupliquées n'impactent pas le classement directement mais réduisent le taux de clic en SERP.

Contenu dupliqué et pages orphelines

L'onglet Canonicals révèle les pages dont le canonical pointe vers une autre URL (ce qui est voulu) et celles sans canonical (ce qui peut poser problème sur les sites e-commerce avec filtres). Pour les pages orphelines, le chemin passe par l'onglet Site Structure : toute page sans lien interne entrant n'est accessible que via le sitemap, ce qui fragilise son indexation.

Pour un audit technique SEO complet, je croise toujours ce rapport avec les données de Google Search Console pour identifier les pages orphelines qui avaient du trafic avant de perdre leurs liens internes.

Images sans attribut alt

L'onglet Images liste toutes les ressources image crawlées. En filtrant sur "Missing Alt Text", j'obtiens la liste des images à corriger. Sur les sites e-commerce, ce rapport révèle souvent plusieurs centaines d'images sans description, ce qui est un frein direct pour l'accessibilité et pour l'indexation dans Google Images.

Structure des URLs et profondeur de crawl

L'onglet Site Structure visualise l'arborescence du site et calcule la profondeur de chaque URL. Toute page à plus de quatre clics de la page d'accueil est considérée comme difficile d'accès pour les robots. Je vérifie aussi la cohérence des silos thématiques : les URLs doivent refléter l'organisation sémantique du site.

Version gratuite ou licence payante, que choisir ?

La version gratuite de Screaming Frog est limitée à 500 URLs. C'est suffisant pour un site vitrine, un blog ou un site de moins de 200 pages. Pour un e-commerce ou un site éditorial avec des milliers de pages, cette limite bloque tout audit sérieux.

La licence coûte 199 livres sterling par an (environ 235 euros). Elle débloque le crawl illimité, le rendu JavaScript, les intégrations Google Analytics et Search Console, les rapports personnalisés et les extractions XPath. Depuis la version 22, les intégrations IA permettent de connecter OpenAI, Gemini, Anthropic ou Ollama pour générer automatiquement des balises ou analyser du contenu à grande échelle. La version 23.0 d'octobre 2025 a ajouté l'intégration Lighthouse et PageSpeed Insights directement dans l'interface, ce qui évite de switcher entre plusieurs outils.

Mon opinion, sans détour : la version gratuite suffit pour 80 % des sites que j'audite. La licence ne se justifie qu'au-delà de 500 pages ou pour le rendu JavaScript. Si vous gérez plusieurs sites ou si vous faites de l'audit en prestation, l'investissement est rentabilisé dès le premier client sérieux.

FAQ

Screaming Frog est-il gratuit ?

Oui, il existe une version gratuite sans limite de durée, mais plafonnée à 500 URLs par crawl. La licence payante est à 199 livres sterling par an et lève toutes les limitations, dont le rendu JavaScript et les intégrations avec les outils Google.

Combien de temps prend un crawl avec Screaming Frog ?

Ça dépend de la taille du site et de la configuration. Un site de 500 pages se crawle en cinq à dix minutes avec les réglages par défaut. Pour un site de 50 000 pages avec rendu JavaScript activé, comptez plusieurs heures. Désactiver la vérification des liens externes est le levier le plus efficace pour réduire le temps de crawl.

Screaming Frog remplace-t-il Google Search Console ?

Non, les deux outils sont complémentaires par nature. Screaming Frog analyse le site tel qu'il est accessible techniquement, sans données de trafic. Google Search Console apporte la vision Google : impressions, clics, pages indexées, erreurs de couverture. Je les utilise toujours ensemble pour croiser les problèmes techniques avec leur impact réel sur le trafic.

Comment crawler un site en JavaScript avec Screaming Frog ?

Allez dans Configuration > Spider > Rendering, puis sélectionnez "JavaScript" dans le menu déroulant. Screaming Frog utilise alors un navigateur Chromium intégré pour exécuter le JavaScript avant d'extraire le contenu. Cette option nécessite la licence payante et ralentit significativement le crawl : réservez-la aux sites qui en ont vraiment besoin.

Si vous hésitez encore sur l'utilité de Screaming Frog par rapport à votre contexte, dites-moi quelle est la taille de votre site et ce que vous cherchez à auditer en priorité : je peux orienter vers la configuration la plus adaptée.

À propos de l'auteur
Matthieu Texier, consultant SEO

Matthieu Texier

Consultant SEO freelance - Rennes

J'accompagne les TPE, PME et artisans dans l'amélioration de leur visibilité sur Google depuis 2020. Mon expertise couvre l'audit SEO, la stratégie de contenu, le netlinking et le référencement local. Mon objectif : vous transmettre des stratégies concrètes et actionnables pour développer votre activité en ligne.

Voir mon profil

Besoin d'un accompagnement SEO ?

Discutons de votre projet lors d'un appel gratuit de 30 minutes.

Contactez-moi