in

John Mueller (Google): "Nous effectuerons des mises à jour importantes plus régulièrement"


Dans le cadre du SMX Paris, le JDN a interrogé John Mueller, analyste des tendances pour les webmasters chez Google, sur les défis et les défis de la recherche du moteur de recherche.

JDN. Combien de personnes utilisent l'algorithme de Google?

John Mueller est analyste des tendances pour les webmasters chez Google. © Google

John Mueller. Ce n’est pas défini, car lorsque nous parlons de code informatique, de nombreuses petites choses sont en jeu! Au total, plus de 100 000 personnes travaillent chez Google. Une grande partie sont des ingénieurs dédiés à divers projets qui se chevauchent. Peu de personnes travaillent exclusivement sur le noyau de l'algorithme. Cependant, il existe des gestionnaires spécialisés, en particulier sur la partie positionnement, qui comprennent suffisamment l'algorithme pour trouver des solutions, si on leur dit "pour cette requête, Google présente cette page à la place, ce qui est plus pertinent". Ce n'est pas vrai qu'une seule machine comprend ce que Google fait.

Certains référenceurs craignent la disparition des liens bleus au profit de résultats enrichis et de publicités. Ont-ils raison?

Non je ne crois pas. Nous voulons aider les gens à trouver les réponses à leurs questions et, le plus souvent, ces réponses ne correspondent pas à deux ou trois mots. Vous devez consommer beaucoup de contenu pour comprendre quelle est la bonne réponse. Ainsi, bien sûr, certaines évolutions du SERP présentent plus de contenu, d’autres moins, mais dans tous les cas, les internautes recherchent des informations que nous ne pouvons pas remplacer. Nous devons prendre des extraits des sites Web. C'est là que réside l'expertise.

Il y a eu plusieurs bugs d'indexation cette année chez Google. Le Web devient-il trop gros pour être exploré et indexé?

Ce n’est pas le Web qui devient trop gros, c’est une question d’ajustement des infrastructures. La plupart du temps, personne ne remarque ces changements, car le Web et la recherche continuent de fonctionner. Mais parfois, il y a une casse. Sur les pages en direct de sites d'informations, par exemple, vous devez explorer en permanence. Nous ne manquons pas d'espace de stockage, mais le Web change et nos infrastructures avec.

Qu'est-ce que Bert?

Bert est un type d'algorithme qui n'a pas été développé ici, mais par des chercheurs qui souhaitent comprendre le texte naturel et les liens entre les mots. Google souhaite mieux comprendre les requêtes d'une part et les autres pages des sites. Il ne s’agit donc pas de modifier les positions mais, dans l’idéal, d’offrir des résultats plus pertinents. Bert n'apporte pas de pénalité et ne remplacera pas les anciens algorithmes mais viendra en complément. C'est un système d'apprentissage machine que nous n'aurons pas besoin de coder manuellement pour dire quels mots vont ensemble. Par contre, cela nécessite plus de tests en amont.

Devrions-nous attendre plus de mises à jour dans les mois à venir?

Il ne suffit pas de mettre à jour pour rester silencieux. Alors oui, il y aura plus régulièrement des mises à jour importantes (mise à jour principale, note). Nos équipes sont conscientes qu'il y a des jours fériés et que l'envoi de gros changements juste avant Noël peut créer la panique. D'autre part, quand les gens font leurs recherches, peu importe s'ils sont en vacances, ils veulent juste la meilleure réponse possible.

Les SEO disent avoir perdu des positions sur des sites de bonne qualité lors de la mise à jour de début novembre, confirmée par Google. Qu'est-il arrivé ?

Il est difficile pour nous de prédire quels mouvements les référents percevront et donc ce qui les inquiète. Chaque fois que nous modifions notre positionnement, nous essayons d'évaluer le nombre de sites concernés et leur incidence. Nous communiquons lorsque nous attendons de grands mouvements. Mais cette fois, nous avons considéré qu'il s'agissait de petits changements. Nous ne nous attendions pas à ce que les référenceurs le remarquent. Nous faisons des mises à jour quotidiennes, qui passent inaperçues. Mais parfois, de très petits mouvements affectent des sites dont le propriétaire est très actif sur Twitter. Nous ne souhaitons pas perturber les référenceurs, ni annoncer toutes les mises à jour, car il y en a trop et ce serait une panique incessante.

En ce qui concerne les changements de positionnement et la qualité des sites, il y a forcément des mécontents car certains sont des perdants. Par contre, si un site nous contacte pour nous dire: "Sur cette requête, objectivement, les résultats sont vraiment pires maintenant", nous le transmettons à l'équipe en charge du positionnement. Parce que si c'est une erreur, nous devons le réparer.

Pourquoi certains sites se classent très bien en se concentrant uniquement sur les backlinks?

Pour chaque site, nous recueillons et rassemblons tous les signaux à trier. Cependant, pour certains sites, le contenu prime, pour d'autres ce sont les liens. Il n'y a pas toujours d'équivalence entre les sites concurrents. De plus, comme nous comprenons de plus en plus de pages, les signaux et les backlinks, plus artificiels, sont de moins en moins pertinents.

Comment Google localise-t-il un lien acheté?

Nous nous appuyons sur l'image générale du lien des sites car l'analyse des URL des liens n'est pas concluante. Même manuellement. Si tout à coup, un site reçoit plusieurs liens d'un site d'actualités, avec des ancres chargées de mots-clés, il est beaucoup plus visible. C’est donc ce sur quoi nous nous concentrons, ainsi que l’algorithme. Lors d'une action manuelle, si nous avons des doutes sur certains liens mais que la plupart des liens sont hors de suspicion, nous les lâchons. Si l'image générale du site nous montre que les liens sont localisés et peu variés, alors nous agissons.

Allez-vous ajouter un filtre sur les requêtes vocales dans la console de recherche?

Non, pas bientôt. Ce serait bien, mais nous ne savons pas comment délimiter le contenu qui servirait de base de données. Dans les études, j'entends souvent dire que la moitié des recherches sont faites à la voix, mais cela comprend le réglage d'un réveil, la lecture de musique, la météo. Techniquement, il s'agit d'une recherche vocale, mais les résultats Web ne sont pas générés. Combien de recherches vocales sont effectuées, affichant le contenu de la page Web, combien d'impressions d'URL? Lorsque nous comprenons mieux les requêtes et les pages, cela se traduit par la console de recherche.

John Mueller est analyste des tendances Webmaster chez Google depuis 2007. Ingénieur en formation en robotique, il intervient fréquemment comme conférencier pour Google dans la communauté internationale du référencement.



Source link

What do you think?

0 points
Upvote Downvote

Written by manuboss

Pourquoi les SEOs doivent abandonner Excel au profit du SQL ?

Comment utiliser des outils techniques pour améliorer vos classements ?