Contact
Logo Arnaud Bruckler

Arnaud Bruckler

Consultant SEO depuis 2012

#20 – SEO : structurer son site pour améliorer le crawl de Google

Posté dans le module : 3 - Contenu & SEO - Retour à la masterclass


Ton site met du temps à être indexé par Google ? Certaines de tes pages importantes n’apparaissent pas dans les résultats de recherche ? Tu soupçonnes que Google a du mal à naviguer sur ton site mais tu ne sais pas comment diagnostiquer le problème ?

Dans cet article, nous rentrons dans un sujet très technique mais fondamental : le crawl de Google. Tu vas voir comment structurer ton site pour que les robots de Google puissent le visiter de manière optimale, et pourquoi c’est essentiel pour le référencement de ton site.

Tu préfères le format vidéo ? Retrouve cet épisode ci-dessous :

20 1024x576

Un nouvel épisode chaque lundi !
Abonne-toi pour ne rien rater !

Si tu préfères la lecture, continuons ci-dessous !

Définition du crawl de Google

Pour commencer, posons les bases.

Le crawl, c’est tout simplement la façon dont les robots de Google naviguent sur ton site. Ils suivent les liens, explorent les pages, et décident de ce qu’ils prennent en compte ou non.

Si ton site est mal structuré ou qu’il utilise de mauvaises techniques d’affichage, Google va mettre du temps à découvrir tes nouvelles pages. Il peut même ignorer des parties entières de ton contenu et gaspiller du temps sur des pages inutiles.

Le résultat :

Un bon crawl, c’est le signe que ton site est bien structuré, techniquement optimisé, et prêt à recevoir plus de visibilité.

Optimise ton crawl et guide google vers les bonnes pages

Le budget crawl

Maintenant qu’on a vu ce qu’est le crawl, parlons du concept de « budget crawl ».

Google attribue à chaque site un nombre spécifique de pages que ses robots sont prêts à visiter chaque jour. Et ce budget n’est pas infini.

Plus ton site est populaire, rapide et bien structuré, plus cette valeur augmente. Mais à l’inverse, si tu laisses Google gaspiller son crawl sur des pages inutiles, des filtres de recherche, ou des erreurs 404, alors il passera moins souvent sur les pages importantes.

C’est pour lui une optimisation indispensable de ses ressources, puisqu’il doit parcourir plus d’un milliard de sites web, dont une grande partie sont inactifs, pour ne garder que les pages les plus utiles et pertinentes.

Il est donc important d’optimiser ce budget, notamment en :

Les outils à utiliser pour analyser le crawl

Plusieurs outils existent pour t’aider à analyser le crawl de tes sites.

Google Search Console : la base indispensable

C’est l’interface officielle de Google pour savoir quelles pages sont indexées, s’il y a des erreurs de crawl, et comment évolue ta couverture d’indexation. Tu peux aussi y indiquer ton plan de site, supprimer certains répertoires de son index, et détecter des anomalies.

Search console google

Interface Google Search Console

Analyse de logs : technique avancée mais puissante

Les logs serveurs sont des fichiers qui te montrent les passages réels des robots Google. Tu vas pouvoir voir sur quelles pages ils sont passés, à quelle fréquence, et s’ils ont rencontré des erreurs. Des outils comme OnCrawl et Seolyzer te permettent d’exploiter ces données facilement.

Seolyzer

Interface Seolyzer

Crawlers : simulation du comportement Google

Les crawlers sont des outils qui parcourent ton site exactement comme le ferait le robot de Google. Ils identifient les pages en erreur, les redirections, les liens cassés, ou encore la profondeur des pages. L’un des plus connus c’est Screaming Frog.

Screaming frog

Interface Screaming Frog

Les crawlers te permettent même de tester des sites en préproduction que Google ne peut pas encore voir.

Les éléments à corriger pour améliorer le crawl

Une fois que tu as crawlé ton site, il y a plusieurs éléments clés à surveiller.

Temps de chargement : Plus ton site sera lent, moins Google va le crawler en profondeur. Utilise l’outil gratuit PageSpeed de Google pour identifier les points qui ralentissent le chargement de tes pages. Le plus souvent, il s’agit de compressions d’images, de chargement de scripts mal optimisés, d’un serveur trop lent, ou de la façon dont ton contenu est affiché. Pour une analyse à grande échelle, tu peux connecter l’API PageSpeed à un crawler comme Screaming Frog.

Liens cassés : Ce sont des liens dans ton contenu qui pointent vers des pages qui n’existent plus. Ces erreurs gaspillent le budget crawl, en plus de gâcher l’expérience utilisateur.

Pages en erreur : Tu dois limiter au maximum les redirections multiples, les pages introuvables, et les pages qui auraient des problèmes de serveur.

Les fichiers à maîtriser

Passons aux fichiers clés à bien configurer pour optimiser le crawl de Google.

Sitemap.xml : Ce fichier répertorie toutes les URL de ton site. C’est un fichier à placer sur ton serveur, dans lequel tu vas lister toutes les pages que tu veux que Google prenne en compte dans son index. Tu peux facilement indiquer l’adresse de ce fichier dans la Search Console de Google.

Robots.txt : C’est le garde-fou qui va bloquer l’accès à certaines sections de ton site pour ne pas gaspiller le budget crawl. Tu vas pouvoir y indiquer par exemple les pages de recherche interne, ta page de panier d’achat, ou des pages de tri inutiles.

Attention : Le robots.txt n’est parfois pas respecté par Google, et il faudra quand même bloquer l’indexation de ces pages en ajoutant une balise « noindex » dans ton code.

Fichiers seo

Les éléments techniques à maîtriser dans le code

Parlons des techniques pour éviter les doublons de pages à l’intérieur de ton code.

Balise canonical : Si tu as plusieurs pages quasiment identiques, cette balise permet d’indiquer à Google laquelle doit être considérée comme la version principale. Exemple : si tu as un t-shirt décliné en 5 couleurs, tu pourras définir une seule page principale et indiquer les autres comme des variantes.

Balise noindex : Elle permet d’indiquer à Google que tu ne veux pas qu’il indexe des pages spécifiques. Tu peux la combiner avec une balise « nofollow » pour être sûr que Google ne crawle pas ces pages.

Cloaking (technique avancée) : L’idée c’est de montrer à Google une version de page différente de celle montrée à tes utilisateurs. C’est à manier avec précaution, mais parfois utile pour cacher certains liens afin d’optimiser le maillage interne de ton site.

Les autres techniques d’optimisation

Il existe encore de nombreuses autres techniques d’optimisation :

Plus ton site sera clair, structuré, et rapide, mieux il sera crawlé. C’est ce qui te permettra d’avoir une meilleure compréhension de ton contenu par Google, et donc un meilleur référencement naturel.

Conclusion

Optimiser le crawl Google n’est pas qu’une question technique, c’est un investissement stratégique dans la performance SEO de ton site. Un crawl optimisé permet à Google de comprendre et d’indexer efficacement ton contenu, maximisant ainsi tes chances d’apparaître dans les résultats de recherche.

C’est un domaine complexe qui nécessite une approche méthodique et l’utilisation d’outils spécialisés, mais les gains en visibilité et en trafic justifient largement cet investissement.

Si tu travailles dans une agence SEO et que tu souhaites renforcer tes compétences, ou si tu es entrepreneur avec un projet avancé qui a besoin d’optimiser son crawl pour améliorer ses performances SEO, je propose un audit SEO initial pour analyser en profondeur la structure technique de ton site, identifier les freins au crawl Google et mettre en place les optimisations prioritaires pour maximiser ton budget crawl et améliorer ton indexation.

Ressources

Bonus privé

Mon pire échec (et ce que ça m’a appris)

Réservé aux personnes inscrites à la newsletter.

Gratuit & sans spam.
Déjà inscrit ? Accéder à la newsletter.

Cet article t'a plu ? Découvre d'autres épisodes de ma masterclass gratuite sur le SEO et le Branding.

Pour ne rater aucune publication, tu peux me suivre sur mes réseaux sociaux :