La progression de Google en matière d'exploration JavaScript encourage l'émergence de solutions permettant de produire des sites à la fois bien indexés et dynamiques.
Julie Schadt, responsable du référencement à Paris, est catégorique. "Il n'est pas question de regarder l'avenir du Web sans JavaScript, c'est un langage vivant, très puissant, qui permet de construire des pages dynamiques et ergonomiques". Et l'application Web progressive offre de grandes opportunités de développement, en intégrant les pages Web trompeuses des applications mobiles classiques.
Oui, mais ici, il est inutile d'avoir un bon site si personne ne le voit. Mais investir lourdement dans JavaScript est dangereux pour son référencement. Pourquoi ? Parce queL'indexation par Google d'une page contenant beaucoup de JavaScript n'est "ni immédiate ni garantie", répond Grégory Goudet, directeur du référencement de l'agence de marketing numérique Primelis. Et ce malgré les annonces du moteur de recherche de mai dernier, lorsqu'il a déclaré pouvoir comprendre les sites JS.
"Si les robots n'ont pas le temps de comprendre le contenu JavaScript de la page, elle n'est pas indexée"
En effet, pour explorer les pages en JavaScript intégral, Google utilise Chrome 41, une version de son navigateur datant de 2015. Problème, il n'est pas compatible avec certains frameworks JavaScript, trop récents, comme la deuxième version d'Angular-js, publiée dans 2016. Par conséquent, il peut y avoir une différence entre la page que les utilisateurs voient, complète et animée et celle que les robots voient, entièrement ou partiellement vide. En effet, la prévisualisation de la page conservée par les robots est fixée à cinq secondes: s’ils n’ont pas le temps de comprendre le contenu, il n’est pas indexé. Il y a quelques précautions à prendre avant d'insérer JavaScript dans le code HTML de son site.
Grégory Goudet recommande que les sites JavaScript non complets souhaitant l'utiliser pour créer des pages ou des modèles plus interactifs soient limités aux zones dans lesquelles les robots n'ont pas besoin de lire les robots. Suivant cette logique, le titre, nécessaire à la gestion du contenu et au menu, pour le maillage interne, doit être en dehors du champ JavaScript de la page. De plus, les instructions du moteur de recherche pour les sites partant de zéro consistent à construire la structure et la navigation du site en HTML, puis à ajouter AJAX (acronyme du langage JavaScript et du format de données). XML).
"Encore peu de sites français ont recours au pré-rendu"
Pour les sites JS complets, deux solutions existent actuellement: le pré-rendu et l’optimisation du temps de rendu. Le pré-rendu est la technique actuellement recommandée par Google. Il consiste à créer une version de la page pour les serveurs, en HTML et CSS et une version pour les utilisateurs avec JavaScript. Le contenu est le même sur les deux versions, présenté de la même manière, seul le mode d'envoi est différent. Donc, ce n'est pas du tout, cette mauvaise pratique consiste à offrir un contenu médiocre aux utilisateurs et un autre beaucoup mieux optimisé à l'indexation des robots.
Selon Grégory Goudet, très peu de sites français ont recours au pré-rendu, une solution technique qu’il recommande également d’installer sans l’aide d’un développeur déjà familiarisé avec la procédure à suivre. Selon le framework utilisé (ReactJS, Angular-js, Vue.js, etc.), il est plus ou moins compliqué à configurer. L'outil payant prerender.io est une solution Saas qui peut aider un webmaster à externaliser le pré-rendu. En termes de performance, le pré-rendu augmente légèrement la page, mais le directeur du référencement estime que cet impact est négligeable par rapport au poids total de la page.
"Il est préférable de se concentrer sur l'optimisation du temps de rendu de la page en JavaScript"
Pour les autres référenceurs, tels que Alpha Keita, stratège des données de recherche chez Botify, le pré-rendu est une solution vouée à disparaître dès que Google aura perfectionné ses robots, et donc pas avantageux pour les sites full-JavaScript avec beaucoup de trafic. Il considère qu'il est plus stratégique de concentrer ses efforts dès maintenant sur l'optimisation du temps de rendu des pages en JavaScript.
Plus le robot passe de temps sur chaque page, plus il a besoin de budget pour visiter les autres. Les outils d'analyse JavaScript, fournis par Botify ou OnCrawl, par exemple, analysent tous les éléments de la page et mesurent le temps de chargement de chacun. L'ajout de tous les temps de chargement ne doit pas dépasser le temps de rendu de cinq secondes. Sinon, nous devons exclure les ressources inutiles de l'indexation, en vérifiant à chaque fois l'impact sur le temps de rendu et l'affichage de la page. Les mêmes outils peuvent également détecter des erreurs, telles qu'une version de JavaScript trop moderne pour Chrome 41 ou un lien mal intégré. Notez que les sites JavaScript complets disposant de droits d'autorité bénéficient d'un budget d'analyse plus élevé que celui de Google.
A lire aussi: