Maintenir un site de commerce électronique visible sans accumuler d'erreurs de référencement est un défi. Mais si les erreurs se produisent rapidement, quelques bonnes pratiques suffisent pour les corriger et les prévenir.
Vendre sur Internet, c'est travailler de concert avec les moteurs de recherche. Les robots doivent comprendre l'offre de l'e-commerçant, ses développements en temps réel et garantir la qualité de l'expérience utilisateur sur leur site. La mission est simple, en théorie. Mais dans la pratique, le terrain est propice aux erreurs. Voici les sept erreurs de référencement les plus courantes chez les e-commerçants français, solutions à l'appui.
Risque : Les moteurs de recherche, par définition, détestent le contenu en double qui les empêche de comprendre comment indexer avec précision les pages pertinentes de son index. "Les robots d'exploration ne savent pas à quelle page donner la priorité et peuvent ne pas être en mesure de s'y référer", note Louis Chevant, fondateur de l'agence Smartkeyword. En termes de liens, il ajoute qu '"il y a une perte: si dix liens pointent vers deux pages identiques, c'est moins gratifiant que s'ils pointent tous vers une seule page avec un contenu unique".
Détection et des outils Pour récupérer manuellement le contenu en double, il suffit de prendre un court extrait de la page et de le rechercher entre guillemets sur Google ("votre recherche") pour voir s'il apparaît plusieurs fois. "Un logiciel comme" Killer duplicate "pousse les tests plus loin en automatisant la vérification", a déclaré Aurélien Bardon, fondateur de l'agence Aseox.
Solution: Vous devez réécrire ou supprimer le contenu de la page en double ou le désindexer via une page canonique comportant la plus petite référence à la référence.
risque: Le temps de chargement est un critère de classement pour Google, notamment depuis la mise à jour rapide de juillet 2018, avec la pénalisation des sites trop lente sur mobile.
Détection et outils: Gatien Aujay, responsable SEO chez ManoMano, répertorie plusieurs outils disponibles pour surveiller le temps de chargement:
Et les principaux paramètres à suivre:
- Time to First Byte – TTFB pour le temps de réponse de la sortie du serveur
- Première peinture de contenu – FCP (début du rendu de la page pour l'utilisateur)
- Premier délai d'entrée FID (temps nécessaire pour pouvoir interagir sur la page)
- Score Google PageSpeed combinant ces indicateurs de performance clés
- Indice de vitesse (score qui évalue la rapidité d'affichage des éléments au-dessus de la ligne de flottaison)
solutions: ManoMano SEO Manager considère qu'il est prioritaire de "sensibiliser les équipes techniques aux questions relatives à l'UX et au référencement ainsi qu'aux bonnes pratiques, car il s'agit d'un sujet fondamental à infuser à tous les niveaux". En effet, les axes d'optimisation sont nombreux:
- amélioration du temps de réponse du serveur
- optimisation du code retour (optimisation des requêtes BDD par exemple)
- compression des ressources (fichiers, code, média)
- optimisation du chargement des ressources (chargement différé, chargement asynchrone, analyse de gestion des balises)
- gestion du cache
Le défi consiste à déterminer quelle est la priorité au travail et les indicateurs de performance clés associés. En cas d'augmentation soudaine du temps de chargement, les causes principales peuvent être l'introduction d'une nouvelle fonctionnalité, des problèmes côté hôte ou CDN (migration, maintenance, attaque externe, etc.) ou un accès lent. bases de données.
Risque : Si GoogleBot ne peut pas analyser une URL, elle ne pourra jamais être indexée. "Si l'URL génère un trafic important, Google, après avoir échoué lors de plusieurs analyses, dégrade le positionnement (souvent très fortement)", a déclaré le fondateur d'Aseox.
Détection : La commande site: exampledomain fournit un exemple d’URL indexées. La recherche de l'URL dans Google vous permet également de tester son indexation. Si une URL est indexée, elle est analysée. Pour vérifier l’aptitude d’une URL à l’exploration, le mieux est encore d’en exécuter une avec le googleBot, option proposée par Screaming Frog.
Solution "Pour trouver des solutions, il faut en déterminer les causes", déclare Aurélien Bardon. Ils peuvent être volontaires, comme une analyse bloquée dans le fichier robots.txt (Disallow: /) ou IP. Il peut aussi s'agir d’erreurs: chargement trop lent, page orpheline (non incluse dans le maillage interne du site), problèmes d’exploration liés à Javascript …
Outils :
- Un robot comme Oncrawl, Botify, Screaming …
- Surveillance de son fichier robots.txt via un outil de surveillance Oseox, Robotto
- Un outil d'analyse de journaux de type Oncrawl, Botify, Seolyzer …
des risques: Les erreurs 4XX sont des erreurs rencontrées par les utilisateurs ou par Googlebot sur des pages qui n'existent généralement pas ou plus. Le plus connu est le 404 (non trouvé).
Certaines sont légitimes car elles concernent des pages qui ne sont pas supposées exister dans la structure du site. "Mais nous devons surveiller les pages censées répondre", a déclaré Gatien Aujay. Google finit par déclasser une page qui reste trop longtemps dans 4XX. Enfin, le gestionnaire ManoMano SEO fait exception: "le code 410 (disparu), qui permet de signaler à Google l'erreur délibérée d'une page inexistante ou plus. Pratique pour accélérer la désindexation".
détection: Grâce à l'analyse des journaux du serveur apache / nginx, les erreurs d'exploitation dans la console de recherche (erreurs d'analyse), tout outil permettant une analyse interne.
Solution: Des analyses régulières doivent être effectuées en surveillant les codes de réponse du serveur (utilisateurs et Googlebot) pour détecter une pointe ou une augmentation anormale de 4XX. "Cependant, ajoute Gatien Aujay, un système d'alerte interne peut être plus réactif, car la console de recherche Google peut passer à côté de certains problèmes."
Une analyse des détails des URL en 404 permet généralement de comprendre l’origine du problème (pages supprimées ou obsolètes, configuration de la production dangereuse, piège à bot, etc.).
Ensuite, le responsable SEO évoque plusieurs actions possibles:
- Correction de pages en erreur
- Redirection 301 si vous souhaitez conserver l'historique du référencement et rediriger les utilisateurs vers une nouvelle page. Dans ce cas, il est préférable d'attendre quelques semaines que Google ait trouvé la redirection et mis à jour son index avant de corriger les anciens liens.
- Suppression des liens morts.
Risque : La balise de titre HTML placée dans l'en-tête de la page est affichée dans l'onglet du navigateur et dans le titre cliquable sur le moteur de recherche SERP. C'est également une source d'informations sur le contenu de la page pour les robots. "Si la balise est vide, manquante ou dupliquée, il s’agit d’une information perdue ou, pire, d’une fausse piste", explique Louis Chevant. En conséquence, "ne sachant pas comment l'indexer, les robots peuvent le laisser au bas de leur index".
Détection et outils : La nouvelle console de recherche de Google n'offrant plus ces informations précieuses, il est nécessaire de passer une analyse de son site avec des outils tels que Screaming Frog, MyRankingMetrics, OnCrawl ou Botify.
Solution et prévention : Les outils détectent les pages dont les balises sont incorrectes. Pour Louis Chevant, "même si cela prend du temps, l'action manuelle est la plus bénéfique" pour résoudre ce problème. Il ajoute: "Mieux vaut prévenir que guérir, c’est pourquoi vous devez installer un modèle qui automatise les balises de titre et les autres, même si vous les modifiez manuellement à la main pendant la durée de vie de la page." Une bonne habitude à prendre est de relancer l'analyse une fois par mois pour vérifier les balises de titre et éviter l'accumulation d'erreurs.
Risque : La balise méta-description joue un rôle indirect pour le référencement, car ne pas l'informer, ni le faire de la même manière, a commis des erreurs répétées dans la console de recherche. L'extrait que les utilisateurs peuvent consulter dans les SERP des moteurs provient souvent de la balise meta description. La qualité du contenu de cette balise influence le taux de clic. Et "si cela ne lui convient pas, Google génère lui-même une méta description, forcément moins efficace qu'une description optimisée manuellement", analyse Aurélien Bardon.
Détection : La console de recherche répertorie les erreurs, mais il est beaucoup plus pratique de les localiser via une analyse de site. Tous les robots d'exploration SEO offrent cette fonctionnalité. "Au-delà de la simple absence ou de la duplication de contenu dans la méta-description, notez Aurélien Bardon, les robots d'exploration proposent souvent des filtres du type" trop long "(personne ne verra tout le contenu) ou" trop court "(espace restant). aux concurrents) ".
Solution : Effectuez une analyse pour détecter les erreurs et les corriger manuellement. Et pour éviter le problème, configurez un modèle de page incluant la balise meta description.
Outils :
Google Search Console (attention, les données ne sont pas toujours à jour)
Un type de robot Oncrawl, Botify, Screaming Frog
Surveillance sur type de page Surveillance Oseox, Robotto
risque: Les erreurs dans les sitemaps XML ont peu d'impact, leur objectif étant simplement d'aider les robots d'indexation à identifier toutes les pages importantes d'un site Web, y compris les pages récentes. "Ils ne sont pas essentiels au bon référencement de votre site si vous laissez les robots l'explorer dans des conditions normales", se souvient Gatien Aujay.
Détection : Dans la console de recherche, l'onglet "Plans Sitemap" aide à comprendre les erreurs rencontrées par Google (pages bloquées par le fichier robots.txt ou dans noindex, erreurs d'analyse, pages dupliquées, page non indexée, canonique, etc.). ).
"Il existe également des outils en ligne pour tester la validité du format de vos fichiers XML avant de les soumettre à Google", explique le marchand en ligne. Ce sont des outils gratuits en ligne, tels que Code Beautify, XML Validator ou XML Validation.
Solution: Vous devez vérifier régulièrement l'état des sitemaps dans la console de recherche et planifier des tests de non-régression avec les équipes techniques.