Surveillance constante de certains ROI Les indicateurs de performance clés permettent d’éviter des dommages durables au référencement d’un site. Mais veillez à ne pas vous noyer sous un flot d'informations inutiles.
Le référencement est une course d'endurance, mais un site est d'autant plus puissant qu'il ne cumule pas d'erreurs, de bugs ou de délais par rapport à ses concurrents. Exemple: Les rapports mensuels peuvent détecter des erreurs 404, mais bien après les robots d'exploration des moteurs de recherche. Et les positions sont déjà perdues … Suite à ses indicateurs de référencement plus proche du temps réel devient rapidement essentiel. Et pour cela, le référent doit trouver un équilibre lui permettant de détecter les premiers signes d'un crash tout en évitant de se noyer dans un flot perpétuel de données inutiles. Voici les principaux indicateurs de retour sur investissement à suivre en temps réel.
positions
Sur les SERPs des moteurs de recherche, les résultats fluctuent souvent, parfois plusieurs fois au cours d'une même journée. Et "la perte soudaine de quelques places peut entraîner une réduction immédiate du trafic organique", déclare Yulia Adeeva, responsable du marketing produit chez SEMRush. "Il est intéressant de savoir immédiatement quels mots clés sont tombés et quels concurrents se positionnent dessus", ajoute-t-elle. L'important est de réagir rapidement en cas de décrochage important.
Pour le détecter, Gatien Aujay, responsable SEO chez ManoMano, conseille de mettre en place "le suivi du positionnement global et des silos sémantiques ou type de page. Et pondérer le rang du référencement par la requête, et donc prioriser une intervention, un KPI mixte: positionnement et volume de recherche ". Des outils centrés sur le site tels que SEMRush ou Yooda Insights peuvent effectuer le suivi. D'autres se concentrent sur des mots clés tels que Ranks ou SmartKeyword. Quant à la console de recherche Google, elle a quelques jours de décalage. Pour Gatien Aujay, sur ces outils, il faut pouvoir suivre:
- "le pourcentage de demandes dans le top 1, le Graal
- les positions d'argent, c'est-à-dire le pourcentage de positions parmi les 3 premières, qui accumulent plus de 60% des clics organiques
- le pourcentage de demandes dans la première page, dont le CTR est toujours intéressant "
Trafic
Pour certains référenceurs, y compris David Cohen, consultant en référencement, l'indicateur le plus important à suivre dans une approche ROIste est le trafic organique. Et précisément, "Google Analytics peut suivre la courbe de trafic en temps réel", déclare-t-il. Il recommande d'utiliser "la notation de tous les événements techniques ou de communication sous les courbes de Google Analytics, pour dater toute flexion". Le seul problème est que l'onglet en temps réel de Google Analytics ne vous permet pas d'ajouter une annotation. Vous devez vous placer sous la courbe de trafic dans "Canaux" dans la catégorie "Tout trafic" de l'onglet "Acquisition".
"En temps de migration ou de vente, le temps réel est encore plus nécessaire"
Cela permet de comprendre les corrélations entre un événement externe (mise à jour de l'algorithme de Google, décomposition régionale d'un opérateur …) ou interne (modification importante du contenu, travail sur le maillage interne, optimisation du balayage, allégement des pages, etc.) et la performance du site en termes de trafic. Et donc pour anticiper les situations à risque.
"En temps de migration ou d'équilibres, le temps réel est encore plus nécessaire" pour percevoir à temps les signaux faibles en cas de problème, souligne le responsable du référencement de ManoMano. Il recommande de mettre en place un rapport de comparaison avec l'année précédente et avec les indicateurs de comportement sur le site.
Explorer / Erreurs sur les pages
Le responsable SEO n'a pas toujours le contrôle sur tout ce qui touche à la technique et au contenu. Ses outils sont sa tour de contrôle. Pour Olivier Papon, créateur de Seolyzer, il est essentiel de suivre l'analyse en temps réel, car "lorsque Google interprète les nouvelles règles d'analyse dans le fichier robots.txt, leur correction est une tâche longue et fastidieuse". Et pour illustrer son propos: "Google met jusqu'à 6 mois pour publier des pages incorrectement incluses dans son index".
Et précisément, en pré-production, il est de coutume de mettre une directive "interdire" pour bloquer l'analyse. Si ce fichier est envoyé tel quel en production, tout ce qui était en préproduction reste fermé aux robots d'exploration. À l’inverse, le fichier Robots.txt interdit l’exploration de pages de référencement de faible valeur sur le site. S'il est supprimé par erreur, le moteur risque de visiter ces pages et de perdre beaucoup de temps, au détriment de pages vraiment intéressantes.
"Le moyen le plus simple est de configurer vos outils pour envoyer une alerte par email si nécessaire"
Attention aussi aux autres erreurs de référencement: "nom de domaine non renouvelé, erreur 404, URL modifiée, contenu trop pauvre, référencement SEO, titre de balise ou méta description qui saute, mauvaise configuration d'un canon ou d'un noindex", Aurélien Bardon, fondateur d'Oseox Monitoring crawl tool est formel, tous les clients à qui il pose la question ont été concernés un jour ou l'autre. Mieux vaut réagir vite. Il évoque par exemple le cas d’un site de commerce électronique générant plus de trente millions de chiffre d’affaires annuel qui a transformé son analyse mensuelle en analyse à l’heure. "Nous avons constaté que le site entier était complètement brisé pendant une heure chaque nuit et qu'après enquête, il s'agissait de grands échanges de flux entre 3 et 4 heures du matin."
Des outils tels que Seolyzer, OnCrawl ou Botify permettent d'effectuer une analyse (jusqu'à une fois par heure) afin de détecter ces différents types d'anomalies. Le moyen le plus simple est de les configurer pour envoyer une alerte par courrier électronique si nécessaire.
Un autre avantage: le suivi de l'état des en-têtes HTTP permet d'identifier l'apparence des pages passées en code d'erreur, mais également l'ajout de consignes pouvant s'avérer catastrophiques pour le référencement d'un site, tel que X-robots-Tag. Encore une fois, des outils tels que Seolyzer, Oseox Monitoring ou Botify peuvent recevoir une alerte immédiatement en cas de réponse anormale.
UX: activité sur les pages et webperf
Il est difficile de voir si quelque chose perturbe la navigation. Et pourtant, l'impact sur le chiffre d'affaires peut être rapide. Gatien Aujay recommande de configurer des alertes sur le suivi de l'activité sur les pages: "débits de pages actifs globaux et par type de pages, débits de page orphelins et profondeur du site". Une alerte peut par exemple indiquer un ralentissement du site. C’est pourquoi "la surveillance de la performance Web en temps réel peut jouer un rôle moteur s’il ya une augmentation soudaine du temps de chargement des pages sur le site", observe Olivier Papon. Des outils tels que Seolyzer, Kibana ou Grafana fournissent instantanément ce type de données.