Identifiez les actions prioritaires, les points de gaspillage de ressources ou les liens rompus, voici quelques exemples de ce que l’utilisation des données peut apporter au référencement.
Les référenceurs ont accès à beaucoup de données. Les croiser ne représente pas un gros effort, ni techniquement ni financièrement et apporte des informations directement utilisables pour améliorer les performances SEO du site. Voici quelques exemples de données de références croisées pouvant faciliter la hiérarchisation des actions de référencement.
Mesurer le potentiel de progression du référencement
Le référencement est une course à long terme, chaque action mobilise des ressources. L'identification des requêtes présentant le plus fort potentiel de progression du trafic permet de hiérarchiser les actions de référencement à mettre en œuvre. Pour cela, Sébastien Bulté, spécialiste des données chez Resoneo, conseille aux SEO de parcourir leur site avec un outil tel que Screaming Frog, OnCrawl ou Botify, par exemple, pour récupérer les URL du site et les croiser avec les données de la console de recherche Google: clicks, CTR (clickthrough). taux), le positionnement des URL et le volume d'impression (corrélés au volume de recherche). Ensuite, vous devez trier ces informations pour rechercher les pages associées aux requêtes avec un volume d'impression important, mais un CTR et un positionnement médiocres. Ce sont les pages à optimiser en priorité.
Les règles de positionnement ne sont pas identiques pour tous les sites. Selon François Goube, PDG de l'éditeur d'outils d'analyse OnCrawl, "Google distingue très bien un site d'annonces classées d'un site de commerce électronique. Pour le premier, il donne peu d'importance à la volumétrie du contenu mais beaucoup à la vitesse de chargement, pour le second, c’est le contraire. "Avant de se lancer dans des projets ambitieux de référencement, il recommande de rechercher les facteurs de positionnement spécifiques à son site. Pour cela, il parcourt les journaux du serveur indiquant le passage des robots de Google avec les informations d'une page d'exploration du site (voir les outils ci-dessus). Ensuite, il est possible d'isoler les facteurs pour voir si Google explore les pages avec un contenu de 100 mots, 200 mots, 300 mots, etc., ou s'il explore les pages affichées par exemple en 5 ms, 7 ms, 9 ms. En ajoutant les données de la console de recherche, il est également possible de savoir si ces pages apparaissent souvent sur les pages de résultats de Google.
Optimisation sur site
Il s’agit des optimisations sur site qui permettent aux données de référencement croisé d’obtenir les informations les plus utiles pour le référencement. Par exemple, pour retrouver les URL des pages indexées (et donc revisitées régulièrement par les robots Google) mais non maillées (ce qui oblige le bot à quitter le site après les avoir vues: pages orphelines), Sébastien Bulté conseille de parcourir un crawl. du site avec une analyse du journal. Chaque page présente dans les journaux doit comporter plusieurs liens internes. Si tel n'est pas le cas, "ces pages gaspillent l'exploration du budget", déclare le consultant en référencement et un site avec un grand volume de pages, ce qui peut être embarrassant. Une fois qu'elles sont identifiées, nous pouvons décider de les supprimer ou de les bloquer pour les diriger. l'exploration de bots aux pages les plus intéressantes. "
Les pages inactives, indexées mais ne générant pas de trafic, perdent également des ressources (analyse, serveur, etc.). Pour les trouver, François Goube croise des données d'analyse avec celles de pages à trafic, issues de Google Analytics. "Cela permet de décider du sort des pages inactives, mais le plus intéressant est d’utiliser les informations de l’exploration (par Screaming Frog ou un autre outil) pour trouver les points communs entre les pages actives: longueur du titre, nombre de mots, profondeur de la page, etc. ", ajoute le PDG de OnCrawl.
Pour aller plus loin, il croise souvent les URL des pages actives et les informations des pages avec leur position moyenne dans les SERP de Google, disponibles dans la console de recherche. Le but, encore une fois, est d’isoler les paramètres communs entre les pages les mieux positionnées. "Sachant que les pages les plus rapides génèrent plus d'impressions et se positionnent mieux, par exemple, cela donne des informations directement applicables aux pages actives moins bien positionnées", conclut-il.
De plus, Sébastien Bulté a la réponse pour ses clients qui s’interrogent sur l’impact des opinions des clients sur le positionnement de leurs pages. Il croise les URL du site avec le nombre d'avis par page (qu'il a précédemment supprimés), le positionnement des pages à partir de la console de recherche et le trafic de chaque page récupérée sur Google Analytics. "Je peux leur donner une comparaison des performances des pages avec ou sans préavis et ils voient par eux-mêmes s’ils apportent un plus pour gagner des positions et du trafic".
Optimisation hors site
La popularité d'un site, basé sur le netlinking, est l'un des piliers du référencement. Avant de lancer une campagne permettant à un client d’obtenir des backlinks, Sébastien Bulté commence par "évaluer la puissance des sites sources". Il croise des indicateurs sur la qualité du site source, tels que le Majestic Trust Flow, avec une estimation du trafic et du nombre de mots-clés positionnés sur le site, que des outils tels que SEMRush, Ranxplorer ou Similarweb peuvent obtenir.
Et comme le netlinking est à long terme, il est possible d'identifier des liens externes rompus, qui ne sont plus utilisés pour rien. La console de recherche, Ahref ou Majestic.SEO permettent de suivre les liens externes et Sébastien Bulté conseille de réécrire ces informations avec une exploration Screaming Frog en mode "liste", afin d’extraire les codes de réponse des pages de son site. Les liens pointant vers des pages qui ne répondent pas avec un code 200 peuvent être redirigés s’ils sont intéressants.
Introduire la dimension business
Pour François Goube, le croisement de données en dehors du domaine du référencement ajoute des informations utiles au référencement. Par exemple, il est important de savoir quelles pages entrent les utilisateurs qui entraînent une conversion. "Même si la page de couverture n'est pas celle qui convertit, elle est nécessaire pour la conversion", explique-t-il. Pour calculer la valeur de ces pages d'entrée, il croise les pages actives, les pages de conversion de Google Analytics et le panier ou le revenu moyen par page.
Enfin, Sébastien Bulté utilise souvent les données de référencement Google Analytics et Search Console ainsi que les données SEA pour "stimuler les investissements et réduire les enchères Adwords si le positionnement dans les sites de référencement est correct, et inversement".