Le référencement technique est ce qui donne au contenu de haute qualité le classement qu’il mérite. Découvrez ces problèmes courants, et des solutions rapides de consultants experts en SEO pour pousser votre site Web au sommet du SERP.
L’optimisation des moteurs de recherche (SEO) est ce qui place le contenu de la marque devant les publics cibles. Il n’est donc pas surprenant que les spécialistes du marketing chevronnés le considèrent comme un pilier d’un plan de marketing numérique bien équilibré.
Mais il faut plus que du référencement sur la page pour apaiser le grand et puissant Google – le maître de la recherche au pays des moteurs.
Si vous voulez vraiment vous classer, vous avez également besoin d’un référencement technique.
Le référencement technique est tout aussi important, sinon plus, que l’optimisation sur site. Mais comme le beurre de cacahuète et la gelée, ils vont mieux ensemble.
Malheureusement, les entreprises et les équipes marketing l’ignorent souvent jusqu’à la disparition de leur site. Examinons donc de plus près comment le référencement technique peut aider (ou nuire) aux performances de votre site Web.
SEO on-page vs SEO technique : quelle est la différence ?
Tout consultant SEO vous le dira : le référencement sur page et le référencement technique aident votre site Web à se classer dans les moteurs de recherche comme Google, Yahoo! et Bing. Mais la façon dont vous les utilisez pour améliorer votre site est la différence entre les deux.
L’optimisation on-page est principalement une question de contenu. En commençant par la recherche de mots clés et la création de contenu, le référencement sur la page nécessite :
- Incorporer des mots clés dans les titres de page, les H2 et tout au long du contenu de la page
- Rédiger des métadonnées, telles que des méta descriptions et des méta titres, à l’aide de mots-clés
- Insertion de liens internes pertinents dans les articles de blog et les pages Web avec des mots clés
Le référencement technique nécessite :
- Réduire la vitesse de chargement des pages
- S’assurer que la navigation et la structure du site sont correctes et intuitives
- Rendre le site convivial pour les appareils mobiles en utilisant des conceptions réactives
- Optimisation des images et des vidéos
- Utilisation du balisage de schéma
- Ajout de balises HTML rel « author » aux sections bio de l’auteur
Il s’agit d’un aperçu extrêmement abrégé du travail qui va dans les deux stratégies, mais en bref : l’un apporte des modifications de site que vous pouvez généralement voir (SEO) et l’autre apporte des modifications de site en arrière-plan que vous rencontrez (SEO technique).
Pourquoi le SEO technique est-il si important ?
Vous avez construit un monstre de stratégie de marketing de contenu qui comprend la publication hebdomadaire de contenu approfondi de haute qualité. De plus, vous optimisez les éléments sur la page de chaque article. Mais votre contenu arrive à peine sur la deuxième page de Google, même s’il est 10 fois meilleur que ce qui se trouve sur la première page.
Que se passe-t-il ?
Plonger la tête la première dans votre référencement technique vous éclairera un peu. Par exemple, les performances de votre site nuisent peut-être à l’expérience utilisateur (UX) – un facteur de classement Google critique. Si votre site prend trop de temps à charger ou a des liens rompus sur tout le site, les gens rebondiront.
Lorsque les gens rebondissent, le classement de votre site en fait de même – directement dans les égouts.
Ignorez votre référencement technique et vos efforts d’optimisation sur la page ne suffiront pas à augmenter la position, le trafic et la rétention de votre page de résultats de moteur de recherche (SERP). Vient ensuite la disparition potentielle du classement de votre site.
En fait, c’est la raison pour laquelle 33 % des spécialistes du marketing interrogés par HubSpot indiquent que la convivialité mobile est la tendance à exploiter.
Et les principaux canaux de marketing font écho à ce sentiment, avec 36 % d’entre eux se concentrant sur leur site Web et leur blog. Non loin derrière se trouvent le marketing de contenu et le marketing SEO – qui reposent tous sur un excellent référencement et un référencement technique.
Une décision intelligente, étant donné que la majorité (27 %) du trafic Internet provient toujours de la recherche :
Les 6 problèmes SEO techniques les plus courants
Les propriétaires de sites peuvent commettre de nombreuses erreurs en matière de référencement. Mais voici les six principaux problèmes SEO techniques prioritaires qu’on voit le plus souvent :
- Erreurs d’exploration Sitemap.xml
- Problèmes de contenu dupliqué
- Redirections temporaires involontaires
- Images non optimisées
- JavaScript et CSS mal codés
- Liens internes et externes brisés
Décomposons-le.
1. Erreurs d’exploration Sitemap.xml
Les plans de site ont souvent des pages anciennes et obsolètes qui sont cassées ou redirigent le trafic. Il est essentiel de les supprimer si vous souhaitez que les araignées de Google explorent et indexent vos pages.
Notez que les sites plus grands ont des plans de site plus grands qui peuvent arrêter l’indexation s’il s’agit d’un désordre confus.
2. Problèmes de contenu dupliqué
Les spécialistes du marketing de contenu savent que le contenu dupliqué est un gros NON. Mais parfois, ils sont nécessaires pour la fonctionnalité du site. Par exemple, la page deux ou trois d’un blog ou d’une catégorie de produits de commerce électronique.
Ces pages peuvent coexister, mais n’ont pas besoin d’être indexées pour la recherche. Cependant, si vous souhaitez qu’ils soient ajoutés à Google, différenciez le contenu afin qu’il réussisse le test de non-duplication.
Un autre problème de contenu en double est d’avoir un www. et non-www. ou les versions http: et https: de votre domaine. Vous n’avez besoin que de pages https avec soit www. ou non-www. pages.
Par exemple : https://monsite.com ou https://www.monsite.com (l’un ou l’autre, pas les deux). Lorsque vous avez les deux, il crée deux domaines distincts sur Google (si Google ne parvient pas à détecter la page en double et à en indexer une, ce qu’il fait normalement).
3. Redirections temporaires involontaires
Une redirection 302 ou 307 est temporaire, tandis que les redirections 301 sont permanentes. La différence : une redirection temporaire sert à supprimer une page Web que vous republierez un jour. Par exemple, une page de vente Black Friday.
Une redirection permanente, telle qu’une 301, indique à Google que la page disparaît pour toujours et ne reviendra pas… jamais
« Lorsque vous utilisez des redirections 301, Google transmettra l’autorité de la page Web de l’ancienne page à sa nouvelle destination de redirection, donnant un coup de pouce à la nouvelle page », explique Baas. « Les redirections temporaires n’ont pas le même effet et peuvent donc être un gros gaspillage d’autorité de page. »
4. Images non optimisées
Les images non optimisées peuvent avoir un impact négatif sur la vitesse du site et la stabilité de la charge. Cela peut se produire lorsque les propriétaires de sites :
- Ajouter des images gigantesques aux pages Web
- Manque de mise en cache appropriée et/ou configuration de chargement paresseux
- Utiliser le mauvais format de fichier image (les formats de fichiers de nouvelle génération sont optimaux pour la vitesse)
- N’ont pas d’attributs HTML de hauteur et de largeur
5. JavaScript et CSS mal codés
Maintenant, pour une conversation « geek ». Si vous êtes un codeur ou familier avec les langages de programmation, ceci est pour vous. Lorsque JavaScript et CSS (langages courants utilisés pour créer des sites Web) sont mal codés, cela ralentit la vitesse du site.
Cela peut arriver lorsqu’il y a :
- Fichiers JavaScript/CSS inutilisés
- Fichiers JavaScript/CSS non minifiés
- JavaScript bloquant le rendu
- Ressources CSS bloquant la première peinture
- Taille de l’arborescence DOM/nombre de nœuds
6. Liens internes et externes brisés
Cela arrive aux meilleurs d’entre nous, même ceux qui ont des tableaux Trello organisés au T.
Vous déplacez une page, oubliez de basculer tous les liens vers votre site, et voilà que vous avez un problème de lien cassé. C’est une solution facile si vous l’attrapez tôt et utilisez un outil de référencement comme Screaming Frog pour repérer les liens brisés.
Ensuite, il y a des liens brisés en dehors de votre domaine. Les liens externes changent, et lorsqu’ils le font, cela indique à Google que le site est obsolète et peut nuire à l’efficacité de l’exploration et à l’expérience utilisateur.
En d’autres termes, une mauvaise nouvelle pour vos données vitales Web et votre classement de page.
Comment pouvez-vous améliorer votre SEO technique ?
La gestion des performances médiocres du site se termine ici. Il est temps de prendre les mesures nécessaires pour rendre votre site digne des visiteurs (et des SERP).
Voici une liste de contrôle SEO technique que vous pouvez utiliser maintenant pour améliorer votre site aujourd’hui.
1. Auditez vos efforts de référencement actuels
Première étape pour améliorer votre stratégie SEO technique : réaliser un audit SEO. Un audit SEO approprié est un mélange d’une visite manuelle de votre site couplée à l’utilisation d’outils fiables, tels que Semrush et Screaming Frog, pour trouver les problèmes techniques courants.
Certains problèmes que les outils d’audit peuvent détecter incluent :
- Contenu dupliqué
- Liens internes brisés
- Format robots.txt non valide
- Pages non sécurisées
- Vitesse de chargement des pages lente
- URL canoniques multiples
Après l’audit, identifiez ce qui est cassé, puis corrigez d’abord ces erreurs. Certains audits révèlent une tonne de drapeaux rouges, ce qui peut être accablant. C’est pourquoi il est judicieux de faire appel à un expert en référencement et à un développeur Web pour vous aider à résoudre les problèmes plus techniques.
2. Comprendre comment les robots de recherche explorent et indexent
Google a des milliards de pages indexées. Google et d’autres moteurs de recherche ont des robots qui explorent les sites Web via le code source de votre site Web. Mais ces robots ne « voient » pas les pages Web de la même manière que les humains.
Il ne suffit pas de produire du contenu de qualité pour que Google puisse le trouver, le classer et générer du trafic. (Bien qu’un contenu de qualité soit indispensable.) Si un bot ne peut pas trouver ou comprendre vos pages, même si votre contenu est le meilleur sur Internet, il ne peut pas se classer dans les résultats de recherche.
Malgré la puissance des moteurs de recherche, leurs robots parcourent un nombre fini de pages sur Internet. Pour cette raison, vous voulez vous assurer qu’ils explorent les pages les plus importantes et de haute qualité de votre site, sans perdre de temps sur des pages de mauvaise qualité. C’est ce qu’on appelle le « budget de crawl ».
Le budget de crawl est essentiel pour les grands sites Web. Si vous avez des milliers de pages, mais que vos statistiques d’exploration montrent que Google n’en explore qu’une partie chaque jour, cela signifie qu’il leur manque de grandes parties de votre site. Vous pouvez améliorer votre budget de crawl en excluant les crawlers des pages non pertinentes. Ceux-ci pourraient être :
- Pages d’administration ou de connexion
- « Merci » ou pages de confirmation
- Pages paginées
- Pages de test et de développement
- Pages de destination PPC
3. Implémenter des données structurées
Une façon d’améliorer la façon dont les bots comprennent le contenu de votre site Web consiste à utiliser des données structurées ou un balisage de schéma. Ceci est important pour le référencement et pour préparer l’avenir de la recherche, car Google et d’autres moteurs continuent de personnaliser l’expérience utilisateur et de répondre aux questions directement sur les pages de résultats de leurs moteurs de recherche.
Il existe des centaines de types de schémas différents, et celui qui convient le mieux à votre site Web dépend de votre produit ou service, de votre secteur d’activité et du type de contenu que vous proposez. L’outil d’aide au balisage des données structurées de Google est un outil très utile si vous n’êtes pas familier avec les données structurées. Il vous guide à travers les étapes pour ajouter des données structurées à votre site, note les éléments qui doivent être balisés et crée le code HTML pour vous.
Les données structurées vous aident à vous démarquer dans les résultats de recherche et augmentent la probabilité que votre site apparaisse dans les fonctionnalités SERP telles que les extraits en vedette (également appelés extraits enrichis) ou les personnes demandent également. Cela peut être extrêmement bénéfique pour votre site. Si vous disposez déjà de données structurées, vous pouvez vérifier leur bon fonctionnement à l’aide de l’outil de test des résultats enrichis.
4. Sécurisez votre site
Le « http » dans les URL signifie Hypertext Transfer Protocol, et il permet de transmettre des informations entre les serveurs Web et les clients. Le « S » signifie sécuriser. Si un site Web n’est pas sécurisé, toutes les informations qu’un utilisateur saisit sur la page (comme son nom, son adresse ou les détails de sa carte de crédit) ne sont pas protégées et peuvent être volées.
Sur un site sécurisé, le code est crypté. Cela signifie que toute information sensible ne peut pas être tracée. Avoir un site sécurisé peut vous donner un petit coup de pouce au classement. De plus, les navigateurs Web comme Chrome sont de plus en plus agressifs pour informer les internautes s’ils se trouvent sur un site non sécurisé et pourraient être à risque.
Vérifiez si votre site Web est sécurisé en regardant dans votre navigateur. Si votre site a un cadenas à côté de l’URL, il est sécurisé. Les domaines sécurisés afficheront également « https » dans la barre de recherche, au lieu de simplement « http ».
Avoir un site sécurisé ou non sécurisé peut faire la différence entre la conversion ou la non-conversion d’un utilisateur. Si votre site Web est sécurisé, votre public peut être sûr que ses données personnelles sont en sécurité et que votre marque est digne de confiance. D’autre part, arriver sur un site avec des avertissements indiquant que la page sur laquelle ils se trouvent n’est pas sécurisée peut rendre les utilisateurs mal à l’aise et les faire rebondir.
5. Assurez-vous que votre site est adapté aux mobiles
Fait amusant : 41 % du trafic Web provient d’utilisateurs mobiles (vous êtes surpris ?).
Pour cette raison, Google a une approche d’indexation mobile d’abord – c’est-à-dire que les sites adaptés aux mobiles obtiennent un classement prioritaire.
Ne pas avoir de site Web adapté aux mobiles n’est plus une option si vous souhaitez vous classer dans les moteurs de recherche. Une bonne règle de base est d’avoir un site Web réactif au lieu d’un site mobile séparé. Vous pouvez tester votre compatibilité mobile à l’aide de l’outil de test de compatibilité mobile de Google.
Mais il ne suffit pas qu’un site soit simplement adapté aux mobiles. Votre site doit également offrir une expérience utilisateur mobile globale positive. Les utilisateurs mobiles sont très inconstants et rebondiront rapidement s’ils ne trouvent pas rapidement ce qu’ils recherchent.
Près de 45 % des internautes rebondissent sur les sites Web 21 % à 40 % du temps.
En optimisant pour les utilisateurs mobiles, vous pouvez rapprocher votre site du taux de rebond de 1 % à 20 % pour améliorer votre classement (et l’expérience utilisateur). Malheureusement, c’est une étape que de nombreux spécialistes du marketing oublient de franchir, car nous travaillons si souvent sur des ordinateurs de bureau. Google Search Console peut également vous alerter de tout problème d’utilisation mobile, comme des éléments cliquables trop petits ou un contenu trop proche du bord de l’écran.
Mais ne vous arrêtez pas là : l’accessibilité s’étend au-delà des appareils mobiles.
« L’accessibilité est un facteur de classement/sujet SEO technique qui, je m’attends vraiment à ce qu’il décolle l’année prochaine », déclare Baas. « Google vient de mettre à jour son test PageSpeed Insights la semaine dernière pour inclure une tonne de nouvelles informations, y compris une nouvelle section sur l’accessibilité. »
Souvent, lorsque Google améliore un outil pour inclure des informations supplémentaires sur un facteur de classement particulier – dans ce cas, l’accessibilité – cela signifie qu’ils sont sur le point de mettre à jour l’algorithme pour donner plus de poids à ce facteur de classement (ou l’ont déjà fait).
« Ma recommandation aux référenceurs serait de se concentrer davantage sur les opportunités d’optimisation de l’accessibilité désormais décrites dans ce test », conseille Baas.
6. Revoyez l’architecture de votre site Web
Nous avons déjà souligné l’importance de l’architecture du site Web pour le référencement. Fondamentalement, son objectif est de rendre la navigation sur votre site Web simple, claire et intuitive tout en facilitant l’exploration de vos pages par les moteurs de recherche. Les principaux composants de l’architecture d’un site Web sont :
- La navigation
- Liens internes
- Structures d’URL
- Métadonnées
La navigation est importante pour l’expérience utilisateur ainsi que pour les moteurs de recherche. Les robots de Google explorent les liens et votre sitemap XML, mais ils utilisent également la navigation pour déterminer l’importance de certaines pages sur votre site.
Pour cette raison, vous voulez vous assurer que vos pages importantes sont liées en tant que « niveau 1 » ou les plus importantes. Idéalement, vous n’avez pas plus de sept éléments de niveau 1, sauf si vous avez un très grand site Web, et je ne recommande généralement pas de lier les pages de niveau 4 et au-delà dans la navigation pour éviter l’encombrement.
Il est également important d’avoir une navigation de pied de page qui vit sur chaque page de votre site. De cette façon, lorsque les bots explorent, ils explorent vos liens de pied de page. Il est courant de lier votre politique de confidentialité, votre page d’assistance, vos informations locales et vos profils de médias sociaux dans le pied de page.
Liens internes
Lorsque les bots explorent votre contenu, ils suivent à la fois des liens internes et externes. Pour cette raison, vous souhaitez utiliser des liens internes pour les guider vers les pages importantes de votre site.
Vous n’avez généralement pas besoin de créer un lien vers votre page d’accueil en interne, car il s’agira de toute façon de votre page d’autorité la plus élevée. Vous devez cependant créer un lien vers du contenu interne, tel que des pages de produits et des blogs.
Assurez-vous également d’utiliser des mots-clés dans votre texte d’ancrage au lieu d’expressions génériques telles que « en savoir plus » ou « cliquez ici ». Les robots utilisent le texte d’ancrage pour déterminer le sujet du contenu vers lequel vous créez un lien.
Structures d’URL
Si votre hébergeur de site Web crée automatiquement des URL pour vous lorsque vous ajoutez de nouvelles pages à votre site, vous ne pensez peut-être pas beaucoup aux structures d’URL. Mais ces structures sont encore un autre signal qui explique ce que votre page est sur le point de faire pour les robots des moteurs de recherche.
En outre, vous devez utiliser des mots-clés dans vos URL lorsque cela est possible, et les structures d’URL doivent suivre la structure de votre navigation (comme la façon dont le titre du blog ci-dessus vient après la catégorie racine « /blog/ »).
Métadonnées
Les métadonnées font référence à des éléments tels que le titre de la page de votre site et la méta description, qui résument le contenu de la page. Ces éléments améliorent votre taux de clics lorsque vous suivez les meilleures pratiques telles que :
- Y compris les mots-clés
- Ajout de balises méta
- Utiliser des pipes ou des traits d’union pour séparer les mots
- Garder les titres de moins de 60 caractères
- Garder les méta descriptions sous 155 caractères
Le titre de la page peut être coupé dans les résultats de recherche s’il est trop long, en particulier pour les mobiles. Il convient également de noter que Google affiche désormais l’URL au-dessus du titre de la page sur le SERP. C’est une autre raison pour laquelle la structure de l’URL est importante et doit être facile à lire.
7. Optimisez la vitesse de la page
La vitesse de la page est un autre facteur de classement qui peut nuire ou aider les positions des pages des moteurs de recherche de votre site. S’il est trop lent, il tombera dans les rangs. Mauvaise nouvelle pour les propriétaires de sites qui souhaitent créer une expérience interactive à l’aide de graphismes animés.
Ceci et divers autres éléments peuvent ralentir le temps de chargement de votre page, notamment :
- Grandes vidéos
- Images non optimisées
- Trop de graphiques
- Annonces excessives
- Plugins maladroits ou obsolètes
- Trop de contenu Flash
« Les mises à jour de vitesse de page de l’année dernière ont vraiment rendu cela plus important », déclare Baas. » Google a amélioré ses outils que les webmasters peuvent utiliser pour améliorer la vitesse des pages, tels que le rapport d’expérience de page de la console de recherche Google et le test PageSpeed Insights. »
Pour améliorer la vitesse de chargement de votre page, vous devez d’abord identifier ce qui la ralentit. Ensuite, vous pouvez soit les supprimer, les optimiser ou les réduire. Par exemple, le redimensionnement des images pour réduire la taille du fichier est un moyen d’améliorer les performances du site Web. Ou les compresser à l’aide de fichiers PNG via un outil comme TinyPNG.
Alors, quelle est la vitesse de chargement de la page cible ? Environ 25 % des sites Web se chargent en moins de cinq secondes. Et si vous voulez battre 75 % du Web, votre site devrait se charger en 2,9 secondes. Seulement 6 % du Web se charge en 0,8 seconde.
Maintenant, vous avez une idée de la rapidité avec laquelle votre site est en concurrence avec la majorité du Web.
8. Vérifier la qualité du backlink
La foudre. Tornades. Tremblements de terre. Certaines choses sont hors de notre contrôle. Et il en va de même pour votre stratégie de création de liens. Vous choisissez les liens internes et externes à inclure sur votre site.
Mais qu’en est-il des sites Web qui décident de créer un lien vers le vôtre ?
Google et d’autres moteurs de recherche utilisent des backlinks pour déterminer la qualité de votre site. Auparavant, plus il y avait de backlinks, plus il classait votre site. Cependant, après l’apparition des fermes de liens, polluant Internet avec des backlinks spammés, Google a dû changer de ton.
Aujourd’hui, les backlinks ne comptent pour votre site que si le site de liaison s’applique à la page/blog lié. N’oubliez pas que Google aide les utilisateurs à trouver des informations. Ainsi, chaque lien doit conduire l’utilisateur vers plus d’informations qu’il trouvera utiles.
Pour vérifier le profil de backlink de votre site, vous pouvez utiliser des outils d’audit de site comme Ahrefs, Moz et Google Search Console.
Bien que vous ne puissiez pas contrôler qui établit un lien vers votre site, vous pouvez améliorer votre profil de backlink en procédant par exemple :
- Rédiger des articles de blog invités qui renvoient vers votre site
- Créer des messages informatifs vers lesquels d’autres sites d’autorité voudront se connecter
- Trouver des mentions de votre marque ou de votre produit et demander une backlink (si le site est pertinent et de qualité)
Une fois que vous avez apporté des améliorations à votre profil de backlink, demandez à Google de réexplorer votre site afin qu’il puisse le reclasser.
Le SEO technique est-il difficile ?
Le référencement technique est réalisable lorsque vous disposez des bons outils (et du temps) pour effectuer un audit et apporter des améliorations. C’est une tâche fastidieuse qui nécessite de comprendre pourquoi quelque chose est cassé et comment le réparer.
Malheureusement, la plupart des propriétaires de sites Web sont trop occupés pour auditer, analyser et améliorer leur référencement technique. Ainsi, même lorsque vous disposez d’outils tels que Screaming Frog pour exécuter des analyses, vous devez toujours prendre des décisions et apporter des améliorations. Dans certains cas, cela peut créer une longue liste de tâches, comme le redimensionnement de milliers d’images, la refonte de votre site pour qu’il soit adapté aux mobiles et la mise à jour des liens rompus.