En SEO il y a les facteurs de classement et les mythes autour. Que vous soyez partisan des longues analyses ou des recommandations sommaires, vous en êtes venu certainement que l’audit référencement (SEO audit) de votre site web est une nécessité.
J’avais démontré dans mon billet intitulé « les facteurs de référencement- analyse » que les techniques Onpage et on site sont très importantes suivies par les signaux off site comme le Link building et les médias sociaux.
Onpage : Mots clés et contenu en général un peu comme avec SearchMetrics
Onsite : Plutôt technique, cela couvre la structure, l’indexation, le crawl et la performance
Dans ce billet, nous allons détailler les 5 piliers du site SEO audit au niveau technique et contenu dans le but de faire le tour de tous les aspects de performance SEO.
Pour une lecture facilitée du présent billet voici une table des matières :
- Architecture : l’architecture de l’information est très importante
- Accessibilité : si le contenu n’est pas accessible le SEO peut aider !
- Indexabilité : il faut vérifier l’état des pages indexables
- On page : autant le contenu que les métas doivent être au top
- Off site : popularité, autorité, social… sont autant de facteurs ultra-importants.
ARCHITECTURE
La hiérarchie du site définit l’architecture globale du site, y compris sa profondeur verticale (combien de niveaux il a) ainsi que sa largeur horizontale à chaque niveau. Nous voulons minimiser les clics pour de la page d’accueil pour arriver à d’autres pages importantes. Nous voulons nous assurer également que les pages sont bien liées entre elles dans la hiérarchie du site, et que les pages les plus importantes sont prioritaires dans l’architecture.
Il s’agit d’avoir le meilleur contenu, le plus pertinent en face des utilisateurs et de réduire le nombre de fois qu’ils ont à cliquer pour le trouver. Il en va de même pour les moteurs de recherche, en aplatissant l’architecture du site, nous pouvons faire des gains potentiels en mesure d’indexation comme le nombre de pages qui génèrent un trafic SEO et le nombre de pages dans l’index de Google/Bing. Les pages enterrées profondément dans l’architecture peuvent ne pas recevoir assez de jus de liens pour être visibles par les moteurs de recherche. Par la promotion du contenu important en haut dans l’architecture, nous pouvons améliorer son rang global. Ce processus est appelé «aplatissement»:
Quand il s’agit de hiérarchie, il faut mettre le contenu le plus important en haut
Accessibilité
Dans cette partie de l’analyse, nous devons nous assurer que les contenus les plus importants et les pages construites dans le but de se positionner dans les moteurs de recherche sont bien accessibles. La notion d’accessibilité inclut tout aussi bien les bonnes pratiques utilisées pour les personnes souffrant d’un handicap comme la vue : à titre d’exemple les « ALT » des images sont destinées à ces personnes mais sont utilisées par les moteurs car eux non plus ne sont pas capables d’interpréter encore les images à 100%. Dans ce registre bien des progrès ont été effectués par les moteurs notamment avec la fonction « Rendering » au sein de Google Webmaster Tools mais ils ont toujours besoin de notre aide SEO.
Nous devrons vérifier plusieurs points :
- Le ficheir Robots.txt : est-il utilisé à bon escient en autorisant les pages importantes
- Les balises Méta Robot : bloquent-elles des pages importantes du site
- XML sitemap : est-ce qu’il est bien formaté et contient les pages les plus importantes
- Réponses serveur : avec un crawl (Screaming frog par exemple) déterminer le taux d’erreurs 4xx, 3xx, et les erreurs serveur 5xx…etc.
- Liens HTML : les liens internes pour suivre le site utilisent-ils du JS ou CSS voir flash
- Cookies : sachant que les moteurs n’acceptent pas les cookies, quelle version voient-ils ?
- Erreurs GWT : Google rapporte les erreurs de crawl et l’état d’index – à utiliser sans modération
- Liens cassés et redirigés : il s’agit d’un facteur qualité. Tous les liens internes doivent être directs et pas en erreur.
- ALT textes : les images comportent-elles bien des attributs ALT renseignés, du moins pour les images les plus importantes
- Malware ou Hack : des sites se font hacker tous les jours, pour cela vérifier la présence de Malware via GWT mais aussi utiliser des outils comme Google Analytics voir Semrush pour détecter la présence de mots clés référents qui seraient spammy (porn, xxx…etc.)
- Infinite Scroll : on le sait il y a des solutions mais encore faut-il identifier le problème,
- Temps de chargement du site : votre site peut être super optimisé mais s’il est lent à charger, les moteurs peuvent ignorer des pages importantes car on dispose d’un capital de crawl !!
Bien sûr la liste ci-dessus n’est pas exhaustive, on peut détecter également l’utilisation d’iFrames, d’Ajax et autres techniques qui rendront les pages web non accessibles aux moteurs de recherche mais c’est déjà un bon début.
Indexabilité
Maintenant que nous nous sommes assuré que le contenu sera accessible, nous allons voir comment le site performe au niveau indexation.
La canonicalisation est le maître mot pour éviter les pages indexées en double voir plus. Des points évidents comme le « www » versus « non www », index.php ou la home sont faciles à détecter mais il faut aller plus loin. Les adresses web acceptent les majuscules comme les minuscules, on peut accéder au site via l’IP comme via le nom de domaine, les versions PDF ou DOC qui seraient indexées en doublon au lieu de l’utilisation du CSS pour l’impression… autant de point à vérifier et surtout la bonne utilisation de la balise Meta « canonical » qui doit pointer vers une page avec chemin absolu et sans paramètres.
La notion directement liée au point ci-dessus et qui doit être adressée à ce niveau de l’analyse est le contenu dupliqué. Y a-t-il des copies du site sur d’autres URL (version test, dev…), les codes de suivis sont bien implémentés, y a-t-il des sites miroirs qui trainent sur le web ? J’utilise le site « reverseinternet.com » et je suis à chaque fois surpris de trouver des versions inattendues !!
Les pages dynamiques sont à considérer avec beaucoup de précautions : utilisation d’ID de session, utilisation excessive de paramètres, les pages auto générées comme la recherche interne… autant de problèmes à détecter et éviter pour avoir un état de l’index propre.
Pour mesurer cela, je suggère un petit exercice facile qui consiste à voir le nombre des pages indexées par Google et comparer contre les pages recevant du trafic organique au niveau de Google Analytics par exemple. Un ratio faible laisserait entendre que nous avons un « index bloat » ou en bon français un « gonflement de l’index » c’est-à-dire qu’il y a des pages indexées mais qui n’ont pas raison d’être.
Ensuite il faudra s’assurer que les notions de Géo ciblage sont bien adressées : la langue de la page est-elle facilement repérable, le pays de ciblage a-t-il été déclaré quand il y a plusieurs versions, le choix du format d’URL est-il judicieux ?? Autant de points à vérifier que le site est multilingue, multi pays… Voir pour cela mon billet « Référencement International ».
On page
Il s’agit de la partie la plus courante et celle où on me demande souvent de faire une analyse mais celle-ci n’aurait pas de sens sans les 3 points de test ci-dessus : architecture, accessibilité et indexabilité. Ici, nous nous attardons sur les éléments des pages du site comme :
- Les URLs : sont-elles courtes et user friendly ? comportent-elles les mots clés, utilisent-elles les sous répertoires plutôt que les sous domaines… Je vous invite à voir l’Excellente vidéo de RandFishkin à ce sujet :
- Métas tags: que ce soit le titre ou description, il faut s’assurer qu’ils sont utilisés de manière cohérente avec le contenu. Pas de stuffing ou de technique black hat ça coûterait trop cher ! Utilisent-ils la bonne longueur au niveau caractères ? nous savons que la description est destinée pour le CTR non le SEO mais cela fait partie de notre job SEO de s’assurer que Google ne va pas la remplacer par une description qui rendrait notre travail caduc.
- Heading tags : je me fais dire souvent que le multiple H1 est autorisé en HTML5 mais est-ce vraiment subtil d’avoir autant de titres premiers ?! vérifiez s’il y a une bonne utilisation des deux tags H1 et H2, le reste c’est de l’accessoire.
- Contenu : encore une fois le contenu est roi !! Assurez-vous que les pages contiennent du texte de manière substantielle et qu’il est pertinent pour l’audience en privilégiant les mots clés ciblés dans les premiers paragraphes. Pas d’erreur ni grammaticales ni verbales, Google sait faire la correction. Le contenu généré pour les moteurs a fait son temps, pensez plutôt utilisateur, et idéalement appliquez les profils des persona pour juger si le contenu est pertinent.
- Les images : car une image vaut mille mots, les moteurs donnent de l’importance à la présence de celles-ci dans le contenu. Vérifiez que GWT donne bien des impressions pour les images du site (on parle de 10% de la recherche quand même !)
- Publicité : là encore les directives sont bien claires : pas d’abus au-dessus de la ligne de flottaison (above the fold).
- Liens sortants : oui ils comptent aussi car les bons voisins se parlent bien. Récoltez les outlinks (encore une fois Screaming Frog) et passez-les via un outil comme Netpeak pour avoir les SEO métriques de ces pages (Page Authority, PageRank, Partages sociaux…)
C’est un début pour faire un état des lieux du contenu Onpage. Vous pouvez aller plus loin bien sûr en comparant aux compétiteurs : home, type de contenu utilisé, contenu généré par utilisateur… laissez votre bon sens vous guider.
Off Site
Il s’agit probablement de la partie la plus importante quand on est dans un univers compétitif. Bien que les moteurs se reprennent en disant qu’ils dévaluent la valeur des liens et les signaux externes dans le positionnement des résultats : il n’en est rien et les liens entre autres restent le meilleur signal utilisé par Google et qui a fait sa réussite. Il ne s’agit pas d’y aller à la louche pour chercher la quantité mais plutôt faire un état des lieux de la qualité et quantité en mesurant adéquatement les signaux suivant :
Popularité: Les sites les plus populaires ne sont pas toujours les plus utiles, mais leur popularité leur permet d’influencer plus de gens et d’attirer encore plus d’attention. Ainsi, même si la popularité de votre site n’est pas la mesure la plus importante à surveiller, il est encore un prédicteur important du succès SEO. Comment vous gagnez du trafic, comment ce trafic se compare aux sites similaires, est-ce que le site gagne des liens des sites populaires… ?
Fiabilité: La fiabilité d’un site Web est une mesure très subjective, car chacun a sa propre interprétation de confiance qui lui est nique. Pour éviter ces préjugés personnels, il est plus facile d’identifier les comportements qui sont communément admis comme étant dignes de confiance. Par exemple, il faudra éviter les techniques de keyword stuffing, contenu invisible ou caché, ou le cloacking qui consiste à renvoyer des versions différentes du site selon le user agent ou l’adresse IP. Des outils externes comme MyWot ou encore Site advisor de McAfee vous donneront un premier aperçu quant aux malware et spam mais vous pouvez aller plus loin via GWT.
Autorité: Le backlink profile est le meilleur moyen de voir comment se comporte votre site versus la compétition. Que vous le fassiez via Domain Authority Backlinks ou par un autre indicateur comme Trust flow suggéré par MajesticSEO il est intéressant de faire le benchmark. Pour ma part j’adore comme on visualise avec le DA la courbe des liens ainsi que la corrélation par rapport aux compétiteurs. J’utilsie la méthode utilisée par Tom Anthony dans son article Link Profile Tool
Local: La base de clients dans la région de ciblage est peut-être l’outil le plus important dans votre arsenal marketing local, et chaque entreprise devrait puiser dedans. En utilisant une stratégie de référencement local, vous pouvez augmenter votre visibilité tant dans le local et en organique. Que ce soit via la Google+ page ou les listings locaux, les citations sont des sources pas chères pour avoir des signaux locaux pouvant influer sur l’off-site au niveau local. Bien sûr les liens avec ancres textes géo localisées sont plus importants mais rien ne vaut une stratégie local SEO complète.
Social: Alors que le Web devient de plus en plus social, le succès de votre site dépend de plus en plus de sa capacité à attirer les mentions sociales et créer des conversations en ligne. Chaque réseau social fournit sa propre forme de monnaie sociale. Facebook a les likes. Twitter a les retweets. Google+ a les +1… La liste est longue. Quel que soit le réseau social, les sites Web qui possèdent le plus de monnaie sociale sont les plus pertinents.
Encore une fois, vous poussez plus loin l’audit en cherchant par exemple les pratiques négatives comme les impacts de Penguin/Panda/Pigeon ou l’utilisation des « meta refresh » ou les redirections JS… mais ce ne peut être un pilier de l’audit mais plutôt un complément. En revanche, le mobile fait partie intégrante de l’analyse à tous les niveaux (duplicate content, site speed, robots.txt..).
Conclusion du SEO audit en 5 étapes
Quelle que soit votre approche pour le site audit rien ne vaut une checklist qui a fait ses preuves. Je vous en suggère 3 que l’on retrouve facilement sur le web :
- Annie Cushing’s Site Audit: il s’agit de la liste la plus complete sur le web
- SEO Audit Checklist par Bill Slawski, Chris Countey, Michael Stricker, Jeremy Niedt and Matt Haran
- Technical Site Audit Checklist: 2015 Edition – celle de Moz bien sûr !
Mais attendez, avant de courir aux recommandations, il faut structurer son analyse. En somme il s’agit de récolter les données (data) nécessaires au site audit SEO et pour cela je suggère plusieurs outils :
- Screaming Frog: certainement le plus populaire et le plus complet mais limité pour trouver le contenu dupliqué (son système de Hash pas au point)
- Moz Pro: certes payant mais c’est ma plateforme préférée pour l’audit grâce à leurs rapports explicites
- IIS SEO tool: Son avantage est qu’il utilise la même technologie que Bing de son propriétaire Microsoft et de plus entièrement gratuit!
Il y en a d’autres bien sûr mais c’est déjà un bon début. Bon courage dans votre SEO audit.