Nous savons l'essentiel
basé sur deux critères: la taille du contenu des pages (il est nécessaire
l'utilisateur ou le moteur de recherche a quelque chose à mettre sous la
dent), et le taux de duplication de contenu (une page apporte-t-elle
nouvelles informations par rapport aux autres). Tout gestionnaire de référencement fait la
chasse contenu mince et les doublons. La chose importante est
pertinence de ce qui est mesuré pour évaluer ces critères. Pour la taille de
content, facile, comptez juste le nombre de mots.
Au niveau des doublons,
les choses deviennent un peu difficiles. Doubles en double, c'est-à-dire pages
vraiment presque identiques, ne sont que la pointe de l'iceberg. Ils
sont généralement facilement détectables, par exemple via les balises Title,
H1, ou méta-description en commun. Ils ont souvent été identifiés et
traité avec des balises canoniques, qui disent aux moteurs de recherche
qui est la version principale du contenu dont la page est une variante.
De quoi as-tu besoin
identifier aussi, c’est un phénomène plus insidieux, celui des pages qui
dis seulement en partie la même chose. Pages avec superpositions partielles
sont souvent beaucoup plus nombreux que les doublons complets. Les moteurs de
Les recherches sont extrêmement efficaces à ce niveau, car elles sont au cœur de leurs préoccupations.
fonction, qui consiste à indexer des informations, afin de savoir lesquels sont
nouvelles ou pas. Il doit optimiser ses ressources d'exploration et mettre
toutes les chances de son côté de découvrir de nouvelles informations, en
opposition à ce qu'il a déjà en stock.
Arrêtons-nous un instant
sur la notion d'information. Information, c’est enfin la continuation de
mots: un seul mot véhicule un sens limité, et qui peut changer en fonction de la
le contexte; il est immédiatement plus logique dans le contexte des quelques
les mots qui l'entourent, quand on considère les expressions. Pour évaluer le
taux de duplication du contenu d'une page au sein d'un site, afin que nous puissions
évaluer la proportion de petites séquences de mots trouvées dans d'autres
pages – et dans combien d'autres pages.
Il ne s’agit pas de
chercher à comprendre le sens de l'information, nous ne touchons pas l'analyse
sémantique. Cependant, nous refléterons efficacement la perception de l'utilisateur,
qui va dire, allant d'une page à l'autre ", il dit à peu près la
même chose ", même si le contenu n’est pas complètement identique.
purement du cryptage de duplication d'informations. L'étude sémantique de
Le contenu est un autre axe d’analyse, qui n’est pas abordé ici, et qui fournit
éclairage complémentaire, par exemple avec une proximité thématique entre
pages liées par des liens auxquels l'utilisateur sera sensible ("cela
n’a rien à voir avec ce que j’avais regardé auparavant ") et que les moteurs
analyser également.
Nous voulons évaluer le
taille et taux de duplication du contenu des pages. Mais ce n'est pas encore
assez pertinent. Avant d'extraire ces indicateurs clés, il est nécessaire de passer l'ensemble
le contenu de la page par tamis: quand on regarde une page, seule une partie
ce qui est sur l'écran correspond à ce que dit cette page. Le reste est
pansement.
Conditions préalables
absolu: où est le "vrai" contenu, par opposition à celui du
modèle?
Moteurs de recherche
sont capables d'identifier le "vrai" contenu d'une page. C'est-à-dire
qu'ils sachent séparer la partie spécifique de la page de la partie correspondante
le modèle, les éléments de navigation et les informations associées
commun à d'autres pages (en-tête et pied de page, menu et barre de navigation, widget
dernières nouvelles ou produits populaires de la section, etc.).
Faire cette distinction est
une condition préalable à toute analyse de contenu digne de ce nom car Google indexera
la page et la présenter dans ses résultats en fonction de ce qui est au cœur de
la page: ce qu'un utilisateur percevra comme le contenu à son arrivée
sur la page, ce qu'il vient chercher.
[Légende: Le “vrai” contenu est en
vert, le template en rouge]
Si on évalue l'exhaustivité
contenu de la page sans séparer le "vrai" contenu de la
modèle, ou si la séparation est en décalage avec la perception humaine, alors
les indicateurs de taille et de caractère unique du contenu ne seront pas pertinents:
peut penser qu'une page a un contenu de taille importante, alors que pour
un utilisateur, il est presque vide; ou qu'une page a beaucoup de
dupliquer le contenu, en ce qui concerne les éléments de modèle auxquels l'utilisateur
ne fais pas attention.
Le poids du modèle en
pages n'est généralement pas, en soi, un élément à optimiser. Il est
plutôt un état de choses dicté par les besoins des entreprises. Si l'analyse du modèle
important, c’est avant tout de pouvoir l’éliminer et d’évaluer seulement
le contenu "réel" sur lequel sont centrés les points suivants.
Tous les sites ne sont pas
logés dans le même bateau
Une fois que nous avons la taille et le
Taux d'unicité du contenu réel des pages du site, quelles conclusions tirent?
Les moteurs de recherche n'ont pas les mêmes
attentes pour tous les types de sites et pour tous les types de pages.
Parce que les utilisateurs non plus. Il est normal que le contenu typique d'un
La page Web varie considérablement selon le secteur, le sujet et, surtout, selon les objectifs.
de la page, qui correspond à l'intention de l'utilisateur: s'informer,
Par exemple, une page de produit peut avoir peu de contenu, si le
site marchand a peu d’informations sur le produit. Pour
l'utilisateur est acceptable. C’est encore plus évident pour un site de
annonces classées, généralement très courtes, voire télégraphiques. À
Au contraire, un site éditorial devrait avoir
pages essentiellement riches et avec un contenu majoritairement original
signifiant "unique sur le site", ce qui sera par exemple moins le cas
pour une page de produit).
Nous ne pouvons pas définir
bonnes pratiques universelles, idéales en termes de taille ou de caractère unique du
contenu. Parce que Google sait que les attentes de l'utilisateur
varier en fonction du type de site et du type de requête, car il sait également
Bien sûr, distinguer un site marchand d'un site d'information. La réputation de la
Le site peut également influer sur les attentes de Google: si le site est très
populaire, c’est un site de référence – les utilisateurs le choisissent
principalement dans les résultats – Google sait que c’est là que les
les utilisateurs veulent y aller, même si d'autres sites sont meilleurs en termes de
qualité pure. En bref, la recette qui fonctionne ne sera pas la même sur tous
des sites.
Rien n'empêche de fixer des objectifs
assez bas: par exemple pour valider, pour les pages ayant vocation à générer
trafic organique, ceux avec un minimum de 100 mots et pas plus de la moitié
leur contenu trouvé ailleurs. Mais se contenter du minimum syndical, sans
prendre en compte les spécificités du site, raterait le réel
des leçons et des possibilités d'optimisation. La clé d'une bonne exploitation
cette information permet de comprendre les attentes de Google
notre site, en particulier.
Le contenu "trop peu" est
combien?
Pour comprendre où Google
placer la barre sur notre site, et cela, pour chaque type de page, il est nécessaire de pouvoir
référence croisée des indicateurs de qualité du contenu avec des indicateurs de
Performances de référencement. Le plus facile sera certainement de regarder le volume de
visites organiques: quelle est la taille des pages qui génèrent
visites, par rapport aux pages qui n'en reçoivent pas?
Voici un exemple de site
éditorial où plus d'articles sont fournis, plus ils génèrent du trafic:
[Légende:[Légende:[Legend:[Légende:Une feuille
active est une page qui a généré du trafic organique au cours des 30 derniers jours
jours – peu importe le volume. La dimension affichée (barres) est le nombre de
mots hors-modèle des pages]
Et voici un site d'annonce
où on observe un niveau, 200 mots, en dessous duquel les pages de listes
les annonces sont beaucoup moins efficaces:
[Légende:[Légende:[Legend:[Légende:Une feuille
active est une page qui a généré du trafic organique au cours des 30 derniers jours
jours – peu importe le volume. La dimension affichée (barres) est le nombre de
mots hors-modèle des pages]
On peut aussi aller un peu
au-delà de la simple question "la page génère-t-elle du trafic ou pas?"
et affichez le volume de visites par page en fonction de la taille du contenu.
Pour le premier exemple, celui du site éditorial, cela donne:
[Légende:[Légende:[Legend:[Légende:Les couleurs indiquent la taille du contenu des pages
(modèle exclu) en mots. La dimension affichée (barres) est le nombre de
visites organiques de Google reçues par chaque page]
Nous voyons qu'au-delà d'être plus nombreux
générer du trafic, des pages avec une taille de contenu importante
également générer plus de visites chacun.
Si tu as
informations sur l'analyse de Google (via l'analyse du journal du serveur, qui
vous permet de savoir quelles pages sont recherchées par le moteur de recherche),
alors nous pouvons également mapper les indicateurs de qualité du contenu à
Comportement d'exploration de Google: nous allons connaître le "profil"
type de "pages explorées par rapport à celles ignorées". Si nous avons aussi
informations de position et d’impression dans les pages de résultats de
Google (informations fournies par la console de recherche Google), nous allons encore
plus de visibilité sur les raisons pour lesquelles une page ne génère pas
trafic: même pas exploré, exploré mais jamais présenté dans
résultats; présenté dans les résultats mais jamais cliqué.
Quoi
Le partage de contenu en double est-il toléré par Google?
Quant à la taille de
contenu, nous pouvons observer la corrélation entre le taux de duplication de page
et indicateurs de performance SEO. Le graphique ci-dessous montre que sur
site d'annonces, les pages de listes génèrent uniquement du trafic organique
quand il n'y a pas plus de 2 pages similaires.
[Une page active
est une page qui a généré du trafic organique au cours des 30 derniers jours –
peu importe le volume. La dimension affichée (barres) est la taille, en nombre
de pages, des groupes de pages avec fort recouvrement, c’est-à-dire ayant au
moins 75% de leur contenu hors template en commun.]
Conseil pratique:
exclure les pages presque vides avant de mesurer les superpositions de contenu:
il y a très peu de contenu, le pourcentage en commun sera potentiellement très
rapidement, ce qui risque de masquer les vrais enseignements. Et de toute façon,
Google aura probablement déjà déjà négligé ces pages sur le critère de la taille de la
contenu.
du
les pages de mauvaise qualité viennent "polluer" une zone
site stratégique?
Depuis que Google utilise
critères de qualité du contenu pour décider où sont les zones du site à
à explorer en priorité, il convient également de se demander si des pages de
une qualité médiocre ne nuit pas à ceux qui ont un potentiel élevé.
Si une section du site
contient des pages stratégiques de haute qualité, mais est pollué par un
quantité importante de pages de mauvaise qualité, dans l’ensemble, la zone ne sera
moyennement satisfaisant. Les moteurs de recherche, qui doivent décider que
Un robot d'exploration, à l'échelle du site, peut attribuer une priorité moyenne à
tout. En conséquence, la zone sera moins explorée que si elle ne comprenait que
les pages de qualité, et Google pourrait manquer des pages avec une forte
potentiel de trafic. Si nous éliminons les pages de mauvaise qualité, la zone
devient immédiatement plus attrayant.
Notez que l'élimination de ces
pages ne signifie pas nécessairement les supprimer du site. Tout dépend si ils
sont utiles à l'utilisateur qui navigue sur le site ou non. S'ils le sont, il suffit de le faire.
afin que les moteurs de recherche ne les explorent pas (leur interdisant ou
en rendant les liens pointant vers eux non explorables).
Qualité de concentration
de la région, les avantages sont nombreux: Google ne gaspillera plus
exploration du budget sur des pages qui ne le méritent pas; il sera enclin à
explorer la région plus loin; et depuis il sera fourni avec plus de contenu
concentré (plus de contenu unique par page ou plus de contenu), le moteur
La recherche permettra d'obtenir plus d'informations, via le même budget d'analyse.
Le site aura immédiatement un plus grand nombre de cartes à jouer dans le
résultats de la recherche: il sera probablement positionné sur
grande variété de requêtes.
Est
que le contenu a changé?
Un aspect souvent négligé
l'analyse du contenu est l'analyse des changements. Imaginons que
pages qui génèrent une part importante du trafic organique sur le
site, voir leur contenu changer radicalement du jour au lendemain. Si ce
les internautes ne sont plus venus chercher, le trafic organique peut
déposer soudainement.
C’est pourquoi un bon
L’analyse du contenu détecte également les modifications très tôt, idéalement avant
produire des dommages. Surtout depuis quelques changements dans les pages
peut facilement passer inaperçu dans des analyses SEO plus élémentaires, telles que
en particulier lorsque la taille du contenu, les balises HTML pour les robots
(H1, titre, méta-description) et les liens vers la page n’ont pas changé.
C'est exactement la même chose
approche uniquement lors de la détection de chevauchements de contenu entre deux
pages: nous comparons simplement deux versions de la même page sur
temps.
Attention aux faux
alertes, cependant, nous voulons seulement signaler ce qui est anormal: si nous
s'attend à ce qu'une catégorie d'une page énumérant les produits verra un
une partie de son contenu change à mesure que le catalogue évolue, il n'est pas prévu
Premièrement, le contenu d'une page de produit change entièrement. nous
revient à la nécessité de réaliser toutes ces analyses par type de page.
cette
retenir
Analyse de la qualité du contenu
est un point essentiel du référencement. Nous ne pouvons pas nous opposer à des critères de qualité
perçus par les utilisateurs et ceux perçus par les robots moteurs de
recherche, puisque l’objectif de la seconde est de correspondre à la première.
Mais l’impact des critères de qualité détectés par les robots va plus loin, car
ils ne dictent que les positions dans les pages de résultats,
ils sont aussi intrinsèquement liés au fonctionnement des moteurs de recherche
en tant que gestionnaires de l'information.
Pour être pertinent, l'analyse
La qualité du contenu nécessite deux choses:
- Sur les indicateurs
d'une qualité de contenu pertinente pouvant être mesurée via des outils
spécialisé et qui reflète le fonctionnement des moteurs de recherche,
- Sur le
approche méthodologique rigoureuse qui dissèque ces indicateurs de qualité en
type de page (page de catégorie, produit) et les compare aux indicateurs de
performance organique (trafic organique, exploration des moteurs de recherche)
afin de tirer des conclusions spécifiques au site et d'identifier ainsi
leviers de croissance.