Inspection d'URL, collection de domaines d'un site ou analyse de données structurées. La console de recherche a été enrichie de nombreuses nouvelles données cette année.
Sans savoir ce que veut Google, la console de recherche révèle aux SEO ce que Google voit. En outre, lorsque l'outil lance plusieurs fonctionnalités, ce sont toutes de nouvelles perspectives qui leur permettent de surveiller la santé de leurs sites et, parfois, d'interagir directement avec le moteur de recherche. Comme par exemple dans le cas de la demande d'indexation dans l'outil de contrôle d'URL. Vue d'ensemble de l'actualité 2019.
Propriétés du domaine
Annoncée le 27 février, la fonctionnalité Propriétés du domaine vise à afficher dans un seul rapport toutes les sous-parties d’un domaine. Pour les agences de référencement, comme Digimood, c’est un pas en avant: "Un seul stockage par domaine, avec tous les sous-domaines, http, https et dossiers à l’intérieur, c’est beaucoup plus simple qu’auparavant", se réjouit Julien Ringard, son associé. réalisateur. Désormais, lors de l'ajout de son site dans la console de recherche, le référent a le choix entre l'enregistrement du préfixe de l'URL (www., M. ou https, correspondant à une vue dans la console de recherche). , comme précédemment, et celle du domaine (domaine.com). Un peu plus complexe, il nécessite d’avoir accès à son hôte pour validation.
"Bien entendu, cette nouvelle fonctionnalité vous permettra de consolider les données de tous les préfixes de l'URL (jusqu'à 1 000 URL), mais si vous traitez avec un blog avec" blog.domaine.com "et un site avec" domaine .com ", je préfère toujours conserver le préfixe des URL pour isoler mes données, de même pour un domaine international", nuance toutefois le directeur associé de Digimood.
Inspection des URL
En plus d’actualiser ou d’accélérer l’indexation d’une page, le nouvel outil d’inspection d’URL fournit une mine d’informations pour la compréhension et le débogage de tout problème d’exploration ou d’indexation. "Surtout pour l'AMP ou les données structurées", note Aymen Loukil, consultant international en référencement. La partie de ce rapport intitulée "Afficher la page explorée" est désormais visible aux yeux de Google:
- code source (HTML) vu par Googlebot mobile pour détecter les anomalies de rendu. Aymen Loukil recommande d'utiliser l'outil Diffchecker pour rechercher les différences entre le code source de Google Chrome et la console de recherche.
- une capture d'écran de la page vue par Google, l'occasion de détecter les erreurs
- un résumé du chargement des ressources, indiquant les requêtes qui n'ont pas pu aboutir
- informations sur le code de réponse (200, 4xx, 5xx ..) et les en-têtes HTTP
- une liste des erreurs JavaScript affichées dans Chrome DevTools (touche F12 du clavier)
La deuxième partie du rapport d'inspection concerne la couverture de l'URL testée. Il montre comment Googlebot a découvert la page, quel bot l'a explorée pour la dernière fois, à quel moment et s'il a été capable de l'explorer sans être bloqué par une indication dans le fichier robots.txt. Enfin, "Google indique maintenant si l'URL canonique retenue par ses robots est celle déclarée par l'utilisateur", a déclaré Aymen Loukil.
Analyse de couverture
L'outil d'analyse de la couverture parcourt maintenant quatre répertoires (erreur, valide avec avertissements, valide et exclu) avec, dans chaque état, le type de problème, la validation, la tendance et le nombre de pages concernées. "Cela donne des exemples concrets pour corriger les erreurs même si nous sommes limités à 1 000 URL par type de problème", déclare Julien Neret.
Cependant, les données de la console de recherche ne sont pas toujours suffisantes. Aymen Loukil recommande par exemple de croiser les erreurs de serveur 5xx avec les journaux du serveur pour comprendre l'origine. Et "pour mieux filtrer les erreurs et les problèmes concernant un certain type de page, tels que les produits ou les articles de blog", il conseille "d'utiliser le filtre en haut à gauche pour segmenter par plan du site".
Plan du site
La section "Plan du site", liée aux fonctionnalités du rapport de couverture, permet désormais de traiter directement les URL de chaque plan du site, "ce qui permet d'effectuer des chirurgies", explique Julien Neret. En effet, "la nouvelle interface catégorise bien les erreurs et nous comprenons rapidement si c’est l’apparition de 404 pages, soft ou true, des erreurs de disponibilité du serveur ou une augmentation inattendue des pages que nous ne voulons pas indexer", déclare Alexis Rylko. consultant senior chez iProspect.
Découvrir
Depuis le 10 avril, les sites recevant du trafic de Google Discover ont accès à un rapport "Discover" en parallèle des performances. Les informations disponibles concernent les URL affichées, le nombre de clics générés, le nombre d'impressions et le CTR pour chacun. Aucun mot-clé, cependant, puisque le contenu est suggéré. Aymen Loukil estime que les données de la console de recherche sont plus complètes que Google Analytics pour Discover: "Pas encore officielle, la source googleapis.com de la référence Google Analytics ne permet de suivre qu'une partie du trafic. Elle collecte tous les clics". Il l'utilise déjà pour comparer les performances de Discover avec le trafic organique.
Données structurées
Récemment, la console de recherche propose également, dans la section "Améliorations", un rapport sur les résultats enrichis à partir de données structurées schema.org sur le site. Bien entendu, il faut avoir déjà mis en œuvre une des données structurées déjà prises en compte pour la voir apparaître. Toutefois, "seules huit catégories sont analysées par l'outil: événements, offres d'emploi, logo, produit, réponses à la page de questions, recette, champ de recherche sur le SERP et vidéo", se souvient Aymen Loukil.
La section "warnings" vous permet de trouver des points d'amélioration du balisage schema.org, tels que le remplissage de champs supplémentaires qui ne sont pas obligatoires. Enfin, cerise sur le gâteau, il donne "la possibilité de partager un rapport notamment avec une tierce personne sans avoir à partager un accès total à la propriété", rapporte le consultant en référencement.
Le 2 mai 2019, Google a annoncé l'arrivée d'un nouveau rapport analysant les codes erronés de schema.org rendant les données structurées illisibles, ainsi que la possibilité d'utiliser l'outil de contrôle d'URL pour les tester en temps réel.
Aymen Loukil accompagne en tant que consultant indépendant petites et grandes entreprises dans leurs stratégies de référencement, sur des missions techniques et généralistes.
Julien Ringard a co-fondé et dirige l'agence de référencement Digimood à Marseille. Il est également l’auteur de plusieurs ouvrages sur le référencement, notamment "Ce que Google veut", 2th édition en 2017.
Alexis Rylko est consultant senior chez iProspect depuis 2015. Il assiste un portefeuille de clients. En 2018, il a mené une étude sur l'évolution du CTR.