Comment concevoir ou réparer un site pour lui donner une solide base de référencement?
Cette colonne suit le précédent "Quel trafic obtenir, avec la sémantique SEO, sur un thème concurrentiel?".
Je vous propose d'entrer dans les détails du point 1 de cette chronique. Il concernait les causes possibles de fuites de "jus" sur votre site Web. Beaucoup de questions sont venues à moi. J'ai finalement décidé de décrire les causes les plus courantes rencontrées.
Cependant, un site avec un socle créé "dans les règles de l'art" peut changer beaucoup de choses.
Sans offenser les agences Web, les sites fournis ne sont généralement pas compatibles avec le référencement. Ils ne sont pas armés pour aller se battre au sommet du SERPS.
Pour rehausser le site, le référent devra développer un netlinking très offensant. Google finira, à un moment ou à un autre, en le nettoyant …
Il y a de la publicité oui. Dans ce cas, vous redonnez toujours votre chiffre d'affaires à Google. Quel est l'intérêt d'avoir un site, alors? Objectif: arrêter les fuites et autres déchets. L'objectif est que votre site devienne un amplificateur naturel de son propre jus.
Explications du phénomène:
Ce qui suit est valable uniquement pour la sémantique, le netlinking ou les deux. Un site qui fuit de partout gâchera beaucoup le travail de référencement. Votre portefeuille se sentira autant que votre site. Donc, si vous arrosez un de vos liens de pages, seule cette page sera gagnante. Je ne vous le recommande pas à fortes doses. En effet, le jus se diffusera mal dans le reste du site.
Seule la page ciblée montera. Un site scellé, au contraire, fera mieux circuler le "jus" sur le site. Il produira son effet de page en page. D'une part, vous ne perdrez pas le jus reçu. Par contre, il pourra circuler sur le site et se renforcer ainsi. Vous êtes alors deux fois gagnant. Ce principe de base dans le référencement n'a pas changé. Plus il y a de jus dans votre site, plus il grandira.
De quel jus parlons-nous?
Vocabulaire: jus = puissance transmise passant par des liens de page en page. Dans l’idée initiale, le jus est un transfert de popularité. Le jus transmissible par une page est plus ou moins coiffé. Cela dépend de la puissance de celui-ci. Un signal est émis chaque fois qu'une page établit un lien avec une autre. Le premier donne crédit, la valeur à la seconde. Ce cadeau ne cause aucune perte. Nous pouvons dire la chose suivante. Un lien génère de la puissance, mais sans le prendre de la page en le faisant.
Vous penserez que c'est curieux. En réalité, ce "pouvoir" est représentatif du succès supposé d'une page. Il est probable que vous le trouverez sur le Web. Une page populaire renvoie à une autre page. Il profitera donc à ce dernier de sa popularité.
Pourquoi perdrait-elle la sienne? Cela indique seulement au lecteur qu'il peut terminer son voyage. Cette nouvelle page est sans aucun doute une extension de celle qu'il vient de lire.
- De nombreuses pages en cascade transmettent du jus au sein d'un site.
- Ces mêmes pages renvoient ensuite à la page de départ.
- Donc, cette page aura une popularité supplémentaire à celle qu'elle avait déjà. C'est ainsi que nous voyons finalement une amplification. Ce n'est pas magique. Ce phénomène est proche de l'engouement humain!
Ne rêve pas cependant. Ce phénomène finit par être comprimé, car sinon l'amplification serait infinie. En pratique, ce dernier est calme après quarante itérations. L'itération correspond ici au suivi du lien par notre ami Google.
Si un utilisateur n'a aucune raison de cliquer sur un lien parce que nous ne lui avons rien promis, alors pourquoi passer sur la popularité? Il en va de même si nous lui avons promis quelque chose et que la promesse n'est pas tenue. C'est pour imiter cette transmission humaine de popularité que Google a implémenté la prédiction de la valeur des liens.
Autrefois, cela se faisait via des "ancres exactes", mais ils ne sont pas très actifs dans le maillage interne, Google en veut plus. En fait, cliquer sur un mot ne dit rien sur la raison qui vous pousse à le faire …
Vous comprenez pourquoi je dis que la seule sémantique qui vaille la peine de travailler sur un site est la sémantique prédictive. Vous devez pouvoir faire une promesse au moteur et pouvoir le tenir. Bien entendu, cette promesse découle du comportement des internautes, du moins de ce que Google comprend.
Pourquoi Google ne le fait-il que maintenant? En fait, cela a commencé il y a quelques années, mais lentement, pour ne pas tout effondrer. C'est grâce au déploiement de l'apprentissage automatique qu'il a pu développer son système.
(Remarque: j'ai réussi à prendre de l'élan, M. Google. En fait, ma propriété intellectuelle sur les métamots précède de quelques mois la publication de brevets de Google sur les vecteurs de contexte.C'est ce qui a été pensé pour prendre.)
Passons maintenant au béton
Il faudra s'attaquer à 2 types de problèmes: Type 1: liens mal faits et de part en part; il faudra beaucoup d'effacer puis de supprimer. Type 2: Les pages qui sont multipliées à l'infini tant qu'elles sont identiques ou presque. Ces deux problèmes peuvent rendre un site mort à l'avance quoi que vous fassiez … Ne prenez donc pas les choses à la légère.
1er type de problème: mauvaise organisation des liens.
Si une page A envoie plusieurs liens vers la même page B, seul le premier des liens sera transmis (approximativement). Mais le jus transmis est plus ou moins proportionnel au nombre de liens dans la page, tous liens. Cela inclut les liens doublés, les liens nofollow, etc.
Donc, plus il y a de liens dans une page, moins le jus pouvant être lié sera disponible. Si plusieurs liens pointent vers le même emplacement, seul le premier est compté.
Ceci est assez cohérent, car un utilisateur clique rarement sur plusieurs liens exactement en même temps. Il en choisira un et le suivra. En première approximation, plus il y a de liens, moins il y a de chances qu'un lien spécifique soit cliqué. L'utilisateur ne se soucie pas de savoir si le lien est nofollow ou non. Même si elle était placée à plusieurs endroits dans la page.
S'il y a 100 liens dans une page, alors un lien a seulement 1% de chance d'être cliqué. En même temps, si tous les liens sont doublés, cela équivaut à réduire de moitié la puissance de chaque lien (environ). Bien entendu, il est tout à fait volontaire que Google évite ce que l’on appelait auparavant le "modelage PageRank". Mais aujourd'hui, c'est surtout cohérent vis-à-vis de la navigation normale d'un utilisateur que Google tente de simuler.
L'élimination des pertes consistera à limiter autant que possible le nombre de liens inutiles. Les cas sont nombreux et notre liste de contrôle vous le montrera. Une fois que la quantité de liens est rationalisée, nous pouvons vraiment bénéficier des effets de la sémantique et du maillage. Sinon, nous travaillerions en vase clos et nous ne récolterions pas les avantages.
La liste de contrôle
- Exemple 1: La chose la plus importante est que l'utilisateur ne vous contacte pas? Oui, mais même sans savoir pourquoi il le ferait? Allez, on met le lien contact partout sur la page. En outre, peut-être pourrions-nous doubler ou même tripler certains liens de menu? Mieux vaut tout démolir, hein?
À l’échelle d’un site, c’est un désastre, car le jus transférable est coiffé du jus de la page. En d’autres termes, très rapidement, de page en page, il n’ya plus rien à transmettre.
Vous imaginez le tableau: 1% sur 1% sur 1%, cela ne fait pas grand chose au final … Donc, une gestion irréfléchie des liens internes et du site traîne malgré les liens reçus. Vos pages doivent être filtrées. Chaque lien doit être présent une seule fois, choisissez le meilleur endroit, mais une seule fois.
- Exemple 2: S'il n'y avait qu'une navigation générale que nous pourrions utiliser pour démolir le site, ce ne serait pas drôle. Allez, nous allons également utiliser les pages de liste pour perdre tout potentiel! Vous savez, ces pages sont supposées permettre à l'utilisateur d'aller au produit qu'il achètera …
Il serait dommage que Google affiche le produit dans ses résultats de recherche! Nous pourrions être bien référencés, ce serait tellement mauvais. Alors donnons-nous toutes les chances d'être aussi loin que possible dans le SERPS. Pour ce faire, nous mettons un lien vers le produit sur la vignette, un sur le nom du produit, un autre encore sur "voir le produit". Cela nous rend mini 3 liens vers la même page, il est au sommet des déchets!
Solution: placez donc le lien sur tout le bloc contenant la vignette, le nom du produit, la description et le bouton d'action. Donc, un seul lien sur le bloc qui contient cet ensemble.
- Exemple 3: Pourquoi ne pas donner à l'utilisateur la possibilité de partager chacun des produits de la liste? L'utilisateur n'a pas encore vu le produit et voudriez-vous qu'il le partage? Sérieux? Dans la fiche produit, je ne dis pas, mais pas une fois par produit dans les listes! Pourquoi ? Non seulement cela fait rarement sens, mais c’est une perte de poids mort pour le site!
- Exemple 4: Il serait dommage que l'utilisateur puisse accéder rapidement à un produit. Il suffit donc de mettre 10 produits par page. Alors écoutez Google quand il vous dit que presque personne ne va au-delà de la page 2 (et déjà à la page 2 …). Pourquoi cela ne serait-il pas aussi vrai sur votre site? Idéalement, éloignez-vous de la pagination, alors affichez tout sur une page chaque fois que cela est possible. Cependant, oubliez complètement le parchemin infini.
- Exemple 5: je vais créer un lien vers un site de toutes mes pages vers un partenaire. Une page spécifique pour chacun d'entre eux serait plus informée.
- Exemple 6: Liens "vicieux": vos en-têtes de menu sont cliquables mais ne mènent nulle part dans certains cas. Pourtant, dans le code source, nous trouvons href = # 39; # & # 39; ou peu importe. Quelle est cette chose ? Il suffit de signaler que nous pouvons cliquer sur le menu pour le déplier! C'est vrai que si on ne le lui dit pas, l'internaute ne saura jamais que des menus peuvent s'ouvrir! Il existe d'autres moyens de faire défiler le menu dans l'en-tête du menu sans utiliser un sharp-href!
- Exemple 7: Appelez une solution fausse, le lien nofollow. Nous trouvons souvent cela dans les pages de contact, les mentions légales, les conditions générales de vente, etc. Le problème est que ces pages sont souvent associées à la balise de robot INDEX, c’est tellement cohérent! Interdire par définition tous les liens internes nofollow de votre site. Toutes les pages peuvent être utilisées pour stimuler le jus … même ceux-ci! (il existe une exception pour le nofollow, nous le verrons plus tard)
Ce ne sont que quelques exemples, la liste n’est malheureusement pas exhaustive.
2ème type de problème: pages identiques dupliquées en masse.
- Les filtres à facettes sont pratiques pour l'utilisateur. Cependant vous devez être prudent, car l'explosion combinatoire est le plus souvent au rendez-vous. Il n'est pas rare de voir que certains sites ont un nombre infini de pages. Cela doit être compris parfois dans le vrai sens du mot. Et tout cela à cause de ces maudits paramètres qui sont mis dans l'URL. L'utilisation d'un formulaire plutôt que d'un href est préférable, mais ne rendez pas les paramètres de filtre visibles. Pour le développeur, cela signifie que les paramètres doivent être passés dans POST et non dans GET. Ainsi, l'URL restera le même, même si vous activez un ou plusieurs filtres, ou types de tri. Les filtres à facettes font des ravages. Google s'efforce de visiter des pages qui ne lui apportent rien de nouveau. Tous sont dupliqués, et cette exploration se fait au détriment de celle sur les pages pour dynamiser le site via leurs liens. Il n'y a pas un moyen de résoudre le problème, mais beaucoup. Dans tous les cas, il est souvent extrêmement grave sur un site de commerce électronique.
- Accès à l'espace utilisateur sur une page dédiée via un bouton "mon compte" par exemple.
Là, souvent, nous embarquons avec le lien, un paramètre dépendant de la page où vous vous trouvez, etc. Là aussi, vous aurez une multiplication d’une seule et même page. Placez le lien vers le compte dans nofollow et placez la page de connexion dans noindex. Pour ma part, je pense qu'un site où aucun paramètre n'est visible dans l'URL est un objectif à atteindre. Pour votre information, c’est ce qui se trouve à droite du? Dans l'url. Si ce n'est pas possible, nous devons nous assurer que ces pages ne sont pas des robots vus. Il n'y a pas une solution pour cela.
Conclusion
Nous disons souvent que les riches sont radins. Je ne sais pas si c'est moral, mais pour votre site, c'est: Arrêtez le gaspillage!
La colonne suivante traitera du contenu (point 2 de la colonne précédente). Je suis convaincu que le plus franc des éditeurs apprendra des choses insoupçonnées …