Après le SEO naturel ou référencement naturel, le SEO payant ou SEA, nous voici tombé sur le SEO technique. S’agit-il d’une autre variante de l’optimisation d’un site ? On le qualifierait plus de sous-catégorie au référencement naturel. En quoi consiste-t-il ?
Trouvez facilement un rédacteur professionnel sur Redigeons.com
[button text=”Contacter nous pour commander des textes” type=”btn-custom” size=”150″ url=”https://www.redigeons.com/nous-contacter/” target=”” bg_color=”” bg_hover_color=”” txt_color=”” txt_hover_color=””]
Qu’est-ce que le référencement technique ou SEO technique ?
Le SEO technique regroupe toutes les actions qui visent à optimiser les éléments techniques d’un site. Autrement dit, il veille à ce que ces éléments techniques soient correctement déployés pour une meilleure indexation et un meilleur positionnement du site dans les résultats de recherche affichés par les moteurs de recherche.
A lire – Règle SEO de base : connaître ses concurrents pour mieux optimiser sa page
Qu’est-ce qui le différencie du SEO naturel ?
Correction : il n’est pas « différent » du SEO naturel, puisqu’il en fait partie. Toutefois, il convient de bien l’en dissocier pour pouvoir comprendre de quoi il retourne exactement. Explications …
Le référencement naturel ou SEO regroupe trois grandes entités plus ou moins reliées entre elles. Il s’agit du :
- SEO technique qui s’intéresse à l’exploration et à l’indexation du site
- SEO On page qui s’intéresse à l’optimisation du contenu
- SEO Off page qui s’intéresse à la popularité ou e-réputation du site
Par conséquent, le référencement technique est bel et bien un sous-domaine du SEO. Avec ses frères, il travaille à accroître la visibilité du site dans les SERPs. En général, il dispose de ses propres armes pour compléter les actions du On et du Off page, mais il arrive que les trois se partagent quelques techniques.
Quel est l’intérêt de soigner son SEO technique ?
Si vous avez lu cet article, vous savez sûrement que les spiders ou robots crawlers des moteurs de recherche se promènent de site en site pour tisser leur toile. Pour s’orienter, ils suivent les liens (SEO off-page) et après avoir exploré chaque page, ils fabriquent leur index (la fameuse toile du web).
Il faut toutefois faire attention parce que les spiders n’insèrent sur leur toile que les sites dignes d’intérêts. Pour sortir leur jugement, ils utilisent les différents algorithmes mis à leur disposition. Tous les sites qui ne répondent pas à leurs exigences seront bannis de l’index ou pénalisés tandis que les meilleurs élèves se retrouvent dans le top 10 à savoir sur la première page des SERPs. Notez que la première page des résultats ne dispose que d’une dizaine de places. La question est maintenant de savoir si vous avez une petite chance d’y figurer alors que les bots indexent des centaines de pages chaque jour.
La réponse est oui, mais pour cela, il faut bien appliquer les consignes du SEO et notamment celles du SEO technique puisque c’est ce dernier qui s’intéresse à l’exploration et à l’indexation. En d’autres termes, son rôle est de séduire les Google bots à travers une architecture claire et optimisée du site puis de les convaincre que votre site mérite une place sur la page à la une.
Pour résumer, le SEO technique doit faire attention aux points suivants :
- Les algorithmes des moteurs de recherche
- Les pénalités qui peuvent tomber et qui font chuter le trafic de 50 à 80 %
- L’architecture du site c’est-à-dire la manière dont les pages sont classées et hiérarchisées sur le site
- L’autorité du site qui se base sur la stratégie sur les réseaux sociaux, la qualité du contenu, la qualité des liens … (points qu’il partage avec le On et le Off page)
- La sécurité du site: la valeur de référence aujourd’hui connue est le HTTPS, mais il y a aussi le certificat SSL et le protocole TLS
Ce sont donc les grands défis auxquels le SEO technique est confronté tous les jours. Heureusement, il a ses bonnes astuces pour les relever et essayer de remporter la bataille.
Quels sont les points à vérifier en termes de SEO technique ?
Afin d’optimiser l’indexation des pages d’un site, le SEO technique travaille sur des points techniques vitaux qui sont les suivants …
Les balises
Normalement, les balises font partie du SEO on-page, mais le SEO technique y prête quand même attention puisqu’elles sont prises en compte par les robots crawlers durant l’indexation des pages. Parmi les balises qu’il faut particulièrement soignées, il y a :
- Les balises Meta description et Title :
Après avoir lancé une requête sur un moteur de recherche, la balise title et la balise meta sont celles que les internautes découvrent en premier pour un résultat donné. Elles donnent de précieuses informations concernant la page de destination à savoir le titre du contenu et un bref résumé. C’est en les lisant qu’un internaute peut décider de cliquer dessus pour afficher la page ou non.
Dans les coulisses, les algorithmes en font un critère primordial de classement. Pensez donc à les rédiger comme il faut donc ne pas oublier le mot-clé.
En savoir plus sur la balise Title
- Les balises canoniques :
Elles font également partie du On et du Off- page, mais le SEO technique en tient également compte pour une raison évidente : la balise canonique sert à transférer l’autorité d’une page vers une Url précise. Cela vous protège de pages dupliquées et évite que l’autorité qui devrait normalement revenir à une seule page soit partagée avec d’autres.
En somme, la balise canonique indique aux moteurs de recherche quelle est la page qu’ils doivent indexer.
- Les robots.txt :
Il s’agit d’un fichier texte qui se situe au niveau du répertoire racine de votre site web. Sa mission est d’indiquer aux robots crawlers quelles pages de votre site ils sont autorisés à explorer et à indexer. Tout ceci se passe dans les coulisses donc les internautes ne peuvent en aucun cas lire, ni même accéder à ce texte.
L’utilisation des robots.txt procure un double avantage contradictoire. D’un côté, ils indiquent quelles sont les pages à référencer et de l’autre, ils dissimulent certaines pages que les robots explorateurs ne doivent pas indexer. Mais l’intérêt du référencement n’est-il pas d’indexer toutes les pages ? Oui, mais sur un site, on a parfois des pages que l’on ne souhaite pas voir apparaître dans les résultats de recherche pour diverses raisons.
- org :
Il s’agit d’une organisation schématique qui concerne principalement les contenus. Pourquoi le SEO technique doit s’y intéresser dans ce cas ? Tout simplement parce que cette balise joue un rôle essentiel dans le classement des pages suite au référencement vocal ou pour propulser un site à la position zéro.
Il aide les robots crawlers à comprendre le contenu d’une page.
- Le hreflang :
Si vous avez un site multilingue, vous avez intérêt à utiliser cette balise pour ne pas que les moteurs de recherche vous accuse de duplicate content. Cela est effectivement possible puisque votre site existera sous différentes versions correspondant aux différentes langues d’édition choisies.
La balise hreflang est aussi indispensable pour que votre site apparaisse dans la bonne langue dans les SERPs. Si un internaute lance une requête en anglais, c’est la version anglaise du site qui va apparaître dans les résultats et ainsi de suite.
La vitesse de chargement
Depuis 2010, Google considère la vitesse de chargement d’une page en tant que critère d’optimisation majeur. Elle se réfère au laps de temps durant lequel l’internaute doit patienter jusqu’à ce que la page soit chargée à 100%. En moyenne, l’attente idéale serait de 3 secondes. Au-delà de cela, les internautes commencent à s’impatienter et ferment l’onglet sans même avoir vu le contenu. Autant que possible, réduisez votre temps de chargement au plus près des trois secondes.
Notez que les internautes ne sont pas les seuls à se hérisser devant une page trop lente. Les moteurs de recherche les a également en horreur et n’hésitent pas à faire tomber les sanctions lorsqu’aucune amélioration n’est faite.
La vitesse doit être soignée, aussi bien sur les mobiles que les desktops. Un dernier point toutefois, à part la vitesse, veillez à ce que l’ensemble de la page du site s’affiche entièrement sur le petit écran des tablettes et des smartphones. Cela nous amène à un autre point essentiel du SEO technique : l’indexation mobile.
L’indexation mobile
Si vous n’avez pas encore compris que l’indexation mobile n’est plus une option, c’est que vous devez vraiment revoir tous vos efforts en référencement naturel. Il faut effectivement souligner que de nos jours, plus de la moitié des internautes sont devenus des mobinautes, soit des personnes qui consultent Internet exclusivement sur leurs smartphones.
Comme on vient de le préciser plus haut, l’indexation mobile est essentielle pour accélérer la vitesse de chargement des pages d’une part, et améliorer leur affichage sur les écrans d’autre part.
Pour s’en assurer, vous pouvez le tester vous-même en ouvrant votre site sur votre mobile. En moyenne, il doit s’afficher complètement en moins de 6 secondes. Prêtez également attention aux contenus. Sont-ils les mêmes que ceux qui s’affichent sur desktop ? Enfin, retenez que l’affichage mobile friendly n’admet pas les fenêtres pop-up. Si votre site ne répond pas à ces points, révisez votre SEO technique.
Pour information :
Il existe une technique qui permet d’optimiser le SEO technique de son site. Il s’agit du format AMP (Accelerated Mobile Pages). Il s’agit d’un format de publication qui vise à accélérer le temps d’affichage des pages sur mobile. Même si se montre efficace, il ne remplace aucunement les autres techniques pour optimiser la vitesse de chargement de vos pages. D’ailleurs, sachez déjà que l’Index Mobile First n’en tient pas compte. C’est donc une astuce à creuser, mais il ne faut pas totalement se reposer là-dessus.
L’architecture du site
Il est important de soigner l’architecture d’un site pour éviter que le chaos n’y règne. Pensez donc à établir des catégories, des sous-catégories … pour que les internautes puissent facilement naviguer d’une page à l’autre. Soignez également le fil d’Ariane pour qu’on puisse savoir dans quelle catégorie on se trouve et pour pouvoir revenir facilement sur ses pas.
Les internautes ne sont pas les seuls à apprécier les sites avec une architecture claire. Les spiders l’utilisent aussi pour crawlers facilement toutes les pages du site. Gardez toujours en tête qu’un robot passe de lien en lien pour se promener à travers votre site. Il ne va ensuite indexer que les pages auxquelles il a accès. Si l’architecture n’est pas claire, le bot aura du mal à accéder à certaines pages et vous vous retrouverez alors avec un site avec quelques pages indexées et quelques pages qui ne le sont pas.
Pour éviter cela, indiquez clairement le chemin vers chaque page grâce à une arborescence claire.
Le plan de site XML ou Sitemap
Et puisqu’on vient de parler de l’importance de l’architecture d’un site, on ne doit pas oublier non plus le Sitemap ou site XML. Il s’agit d’une sorte de carte que vous établissez pour indiquer aux Google bots quelles pages ils doivent explorer et indexer. Cette technique permet de mettre en exergue vos pages principales et de mettre un peu d’ordre dans votre architecture. Elle s’assure aussi qu’aucune page ne soit oubliée durant le passage des bots.
D’une vue globale, le Sitemap permet de transmettre différentes informations aux moteurs de recherche. Grâce à lui, vous pouvez, par exemple, indiquer aux spiders la date de la dernière mise à jour effectuée sur vos pages, l’arborescence de votre site, la fréquence du changement de pages …
Grâce à toutes ces astuces, l’indexation des pages est faite rapidement. Vous n’aurez donc pas à attendre longtemps pour qu’elles apparaissent dans les résultats de recherche. Vous pouvez également suivre le processus d’indexation grâce à vos Urls et toutes les pages, même les plus profondes, seront indexées.
Un conseil néanmoins, faites attention à la profondeur des pages pour faciliter la tâche aux robots crawlers.
Un petit conseil : utilisez le fil d’Ariane
Le fil d’Ariane est conçu pour faciliter la navigation sur votre site tant pour les internautes que pour les robots crawlers. C’est une autre technique à adopter pour souligner l’arborescence de votre site et pour faire indexer facilement les pages profondes.
Les erreurs 404
Avoir trop d’erreurs 404 ou des pages zombies sur un site n’est jamais un bon point, car elles vous font chuter dans le classement des Serps. Cela se comprend aisément puisqu’à force de tomber sur une page qui ne s’affiche pas correctement, les internautes en auront marre et vous évitera comme la peste la prochaine fois. Cela vous fait une audience en moins engendrant une chute dans le classement.
Et bien évidemment, les internautes ne seront pas les seuls à tomber sur ces pages d’erreur. Les robots d’exploration subiront également cette mauvaise expérience et malheureusement pour vous, ces derniers ont le pouvoir de vous faire chuter dans le classement.
Pour éviter cela, pensez à corriger les erreurs 404 au plus vite. La solution courante adoptée par les webmasters est la redirection 301, mais il ne faudrait pas non plus en abuser. La meilleure chose à faire c’est de s’assurer qu’il n’y ait pas de pages 404 sur le site.
Pourquoi il ne faut pas abuser des redirections 301 ?
Les redirections 301 sont utilisées pour diverses raisons :
- Corriger une erreur 404 et donc indiquer que le contenu d’une page A a été transféré vers une page B. Rassurez-vous, les internautes n’auront aucune idée de la supercherie donc cela n’influe pas sur l’UX.
- Modifier la structure d’un site comme lorsqu’il faut renommer ou déplacer une page.
- Suite au changement de nom de domaine ou de la migration HTTP vers le HTTPS.
Quelle que soit la raison qui explique la redirection 301, il faut éviter d’en utiliser en excès, car cela pousse les robots crawlers à travailler davantage votre site. Pour les moteurs de recherche, c’est un signe de non-professionnalisme et vous risquez de voir votre autorité chuter.
Voir une vidéo sur les redirections 301
La sécurité des pages
Avoir des pages sécurisées est un critère majeur en SEO technique. Si votre site est bien référencé, cela signifie qu’il est déjà bien sécurisé, mais il faut quand même s’en assurer. Pour ce faire, il vous suffit d’ouvrir une page de votre site et de regarder si le petit cadenas normalement affiché sur le côté gauche de la barre de recherche est bien là.
Si ce n’est pas le cas, il est conseillé de basculer au plus vite vers le HTTPS qui est la norme de sécurité par excellence aujourd’hui retenue par les moteurs de recherche.
De nos jours, tous les sites nouvellement créés passent automatiquement sous HTTPS, mais quelques-uns passent quand même entre les filets.
Le Duplicate Content
Le Duplicate content est une technique du SEO on-page, mais le SEO technique en tient également compte. Pour cause : un grand nombre de pages dupliquées sur un site est source de problèmes d’indexation. Il faut donc éviter le plagiat au niveau des contenus, mais aussi au niveau des Urls. Il arrive effectivement qu’une URL contienne les mêmes termes que d’autres Urls alternatives. Pour les internautes, ce n’est pas un problème, mais pour les spiders, si.
Pour remédier à pareil cas, utilisez la balise canonique pour indiquer quelle est l’url à indexer.
A lire – Duplicate content : le guide complet pour y mettre un terme
Le nom de domaine
Certains webmasters ne prêtent pas assez attention à leur nom de domaine et pourtant, c’est un point technique qui peut générer des tas de problème. La situation la plus courante c’est le fait de pouvoir accéder à un même site avec une adresse avec www. et sans www. Trop de propriétaires de sites pensent que cela importe peu puisque l’essentiel c’est que les internautes accèdent à leur site. Cela n’est pas faux, mais du côté des robots, il y aura deux adresses distinctes et donc deux sites différents : celui avec le www. et celui sans.
Viennent alors le premier problème majeur puisque les deux sites ont exactement les mêmes pages, les mêmes contenus, les mêmes urls … A ce stade, vous pouvez dire bonjour au duplicate content de toutes les pages.
Pour éviter cela, indiquer aux moteurs de recherche votre nom de domaine préféré. Lequel choisir entre les deux ? L’un comme l’autre fera l’affaire, mais il faut seulement indiquer celui retenu aux moteurs de recherche. Pour ce faire, vous pouvez :
- Faire des redirections 301 en redirigeant les urls non choisies vers celles à indexer
- Utiliser une balise canonique : soit vous optez pour l’en-tête HTTP rel= »canonical », soit la balise de lien rel= »canonical » pour les pages HTML
- Soumettre le sitemap avec le bon nom de domaine
Une fois que c’est fait, vous devez vous rendre sur votre Google Search Console pour préciser la variante de domaine que vous avez choisi. Il faudra aussi l’indiquer à votre système de gestion de contenu (CMS).
La structure des Urls
On en parle déjà plus haut, mais étant donné son importance en SEO technique, de plus amples explications s’imposent.
Il est important de soigner la structure ou le format de ses Urls, car elles fournissent de précieuses informations aux robots crawlers notamment le fond du contenu. Il faudra, pour cela, y insérer le mot-clé principal qui définit l’ensemble de la page.
Aussi, pour clarifier les choses, préférez les Urls courtes, les minuscules sans accent et le tiret sous 6 (-) en guise de séparateur de mots. Evitez autant que possible les caractères spéciaux, les chiffres et un excès de slash (/).
Notez que vous pouvez définir le format à utiliser pour toutes vos Urls depuis votre CMS. Il vous suffit d’aller dans Réglages puis dans Permaliens.
Normalement, la structure des urls fait partie des techniques du SEO On-page, mais vu son incidence sur la visibilité des pages, le SEO technique doit également en tenir compte.
Les données structurées
Ces dernières permettent aux robots des moteurs de recherche de comprendre le contenu des pages d’une part et d’autre part, pour augmenter le taux de clic. Elles permettent ainsi d’être facilement indexé par les bots puisqu’il faut comprendre que ces derniers, grâce à l’Intelligence artificielle dont Google s’est doté, ont la capacité de comprendre les contenus au lieu de s’arrêter uniquement sur les termes clés.
D’une vue globale, une donnée structurée indique l’objet d’une page : s’agit-il d’un article de blog ou d’une actu ? Dans quelle catégorie il se trouve ? Quand il a été publié ? Quel est le titre du contenu ? …
Avec de telles informations, il est beaucoup plus simple de comprendre l’objet d’une page. Il suffit d’utiliser le bon schéma.
Si vous avez d’autres techniques en tête, n’hésitez pas à nous en faire part.