Un indicateur (n')est (qu')un indicateur

A chaque fois que je tombe sur un de ces avis, je pense à l'expérience dont je parle déjà sur ce blog du promoteur internet avec les articles sur la spéculation de noms de domaine, ou celui sur le fake nseo

Mais comme je croise tous les jours de nouvelles louanges sur des métriques fournies par des services qui gravitent autour de Google, je ne peux m'empêcher de vouloir mettre en garde, simplement, contre l'impression de sécurité donnée par ces outils.

Et j'ai un excellent contre-exemple pour démontrer que ces métriques SEO sont à prendre avec beaucoup de recul.

Prenons le nom de domaine que j'ai créé en 2006 : yann-faurie(POINT)fr (c'est moi)

Après avoir plus ou moins blogué dessus j'ai décidé de l'abandonner en ne le renouvelant pas.

J'ai eu la surprise, comme expliqué dans les billets de blog sus-cités, de voir ce ndd récupéré. Je n'avais pas enlevé tous les liens et m'attendais donc à ce qu'il présente un intérêt, de par son profil de linking. J'ai donc fait un audit très sommaire de l'existant en utilisant les metrics fournies par Majestic.

Après avoir retiré les liens de mes propres sites ou des sites de mes clients que je suis encore (c'était l'époque où une agence de création web ou un webmaster freelance comme moi apposaient un lien sur la page "crédits de conception"; je ne le fais plus depuis quelques années), il restait quelques liens d'anciens clients ayant changé de prestataire ou des liens sur lesquels je n'avais plus accès.

Bref, tout ça est décrit en détail sur l'article en question.

Après avoir gardé le nom de domaine et posé un WordPress "de base" dessus sans contenu pendant de longs mois, le webmaster a finalement rédigé un article plein de liens. En russe.

Il réactivait de temps en temps de liens de type sitewide sans en créer de nouveaux, il récupérait simplement des liens existant sur l'ancre datant de 2006, en usant à son compte de techniques borderline pour générer des liens en forçant certaines URL, puis en les faisant indexer. Il était assez malin pour ne pas créer de nouveaux liens sans rapport, et surtout avec un Whois different.

Puis il a choisi de ne pas renouveler, le nom de domaine s'est ensuite retrouvé aux mains de nouveaux propriétaires. Nouveau whois, complètement faux. Et contenu encore pire : un template de e-commerce pour des chaussures "pas chères" de marque américaine bien connue.

Sauf que là, pas de chance pour le webmaster : aucune page indexée par GG. Et ça fait maintenant 3 mois que ça dure.

On est donc sur du pur site spammy, avec un historique précédent également spammy.

Que disent les métriques ?

Fournies par un service en ligne gratuit destiné à l'évaluation des noms de domaine web, j'obtiens :

  • Moz authority 15,
  • Ahrefs rank 37,
  • Majestic Trust Flow 17
  • et Citation Flow 9,
  • Google PageRank 2...

Or, c'est bizarre car si je fais moi-même la requête dans Majestic par exemple, j'obtiens des valeurs différentes pour le TF (trustflow) et le CF (citation flow) :

majestic seo trust flow et citation flow

Idem pour Ahrefs et Moz qui ne retournent pas les même valeurs...

Donc premier constat : les outils fournissent des données différentes, selon qu'on les utilise en direct, ou sous forme d'appels distants (agrégateurs). Et tout référenceur avec un peu de bouteille pourra vous dire que tous les logiciels SEO qui font des relevés ou des vérifications en ligne comportent également leurs lots d'erreurs. Voir les nombreux commentaires sur l'article de ce site "comment j'en suis venu à faire du fake nseo" passé en lien ci-dessus, qui mentionnent ranks, myposeo, etc

Second constat : le même outil fournit des valeurs fluctuantes dans le temps qu'il est difficile d'expliquer, comme vous le verrez aussi sur l'article "fake nseo".

Alors, puisqu'il es de toute façon question de coller au plus près de GG, penchons-nous sur le moteur de recherche.

Les commandes "site:" et "info:" ne retournent absolument rien dans Google...

Et pourtant, d'autres outils continuent d'attribuer de la valeur à ce site. Il suffit en fait de se pencher sur n'importe lequel, comme ici un outil d'audit web gratuit en ligne, pour voir que les données sont complètement faussées : (faites le test vous-même, il y a ZERO page indexée dans GG, pas 2400 comme indiqué ici)

métriques SEO fausses audit gratuit

Or, quand je me rend sur le site, je peux voir du premier coup d’œil que c'est un site spammy qui n'a rien à voir avec le nom de domaine. Le Whois confirme. Ce site n'a aucune légitimité. Il n'est même plus indexé par Google depuis plus de 4 mois. Pourquoi les outils SEO en ligne continuent-ils de lui donner de la valeur ? (Pour Majestic, je sais, puisque l'index de Majestic est indépendant et ne s'appuie pas sur celui de GG)

Conclusion

Dans le cas présent, Google est moins à la ramasse que les outils censés analyser les sites et guider les SEO. Cet exemple prouve qu'il ne suffit pas de faire confiance aux données communiquées par ces outils, et qu'il faut voir plus loin que le bout de sa métrique...

Des convergences de pensées

Quand je lis le dernier article du JDN (http://www.journaldunet.com/solutions/expert/58316/le-referencement-naturel-pilote-par-les-donnees.shtml) de François Goube qui écrit, je cite :

Toute la valeur est dans le croisement

Forts de toutes ces données, les référenceurs ont aujourd’hui toutes les armes pour améliorer leur positionnement et se prémunir d’une pénalité. Toutefois, il faudra croiser plusieurs sources de données pour mener à bien son analyse.

Je ne peux qu'approuver, ainsi qu'apporter les nuances de cet article : ce ne sont pas les données ni les outils qui fournissent les armes, mais bien les usages qu'on en fait et les stratégies qu'on décide d'appliquer.

Quant au croisement de données, là encore il va falloir creuser profondément si on veut de la pertinence. Aujourd'hui, les DATA sont partout. Et les éditeurs logiciels nous donnent des chiffres en pagaie : pourcentages de liens "à risques", nombre de backlinks, nombre de signaux sociaux, données diverses sur les ancres...

Ce n'est pas parce que je m'abonne ou que j'achète tous les logiciels cités que je vais éviter une pénalité à coup sûr. Primo, parce que si je ne sais pas utiliser ces données (et que je me borne aux métriques, comme démontré ici), ça ne me protégera pas. Secundo, parce qu'on a vu à chaque nouvelle version d'un filtre de l'algo. Google ou d'une update, de faux positifs et donc des sites pénalisés sans raison.

Face à l'incertitude, la peur des pénalités Google fait se réfugier référenceurs et webmasters dans l'adoption d'outils fournissant un sentiment de contrôle.

J'espère avec cet exemple simple, vous avoir fourni un nouvel éclairage sur les tools SEO, loin des discours commerciaux.