Serial leeching

Que ce soit sur les articles de Nicolas Jean, de Laurent Bourrelly ou au travers des commentaires qu'on peut lire, une chose est sûre : l'arme à double tranchant représentée par des sites comme Ahrefs, Majestic Seo, OpenLinkExporer et compagnie n'est plus du goût de tout le monde.

Rappelons juste quelques faits à propos de ces outils :


  • Ils permettent de suivre l'évolution des backlinks des sites web (avec des fonctionnalités assez précises comme "liens gagnés récemment / liens perdus récemment"), et donc de marquer à la culotte vos concurrents pour aller essayer de poser vos liens aux même endroits, faire les même partenariats, appliquer la même stratégie...
  • Ils ne sont pas représentatifs du plus important pour le référencement, c'est à dire qu'ils ne reflètent pas exactement le classement de Google à ce sujet,
  • Ils sont sensibles au flood et peuvent donc se faire berner en affichant des résultats manipulés par les webmasters de certains sites
  • Ils sont gratuits pour un usage limité (3 requêtes/jour en moyenne) et payants au forfait selon le nombre de requêtes.

Il en découle les avantages et inconvénients suivants :

Ces outils simplifient la vie des référenceurs 1.0 qui passent leur temps à copier-coller ce que font les autres, et peuvent même leur donner l'idée d'aller désavouer les liens ou stratégies qu'ils jugeraient trop borderline, c'est à dire que ces outils leur permettent d'aller regarder ce que vous faites ("how is my linking ?") puis de vous dénoncer sur twitter, auprès de Google ou en faisant un article dénonçant votre stratégie. Pour résumer :

éthique = 0 ; hypocrisie = 100%

Le lien de causalité avec les individus qui se permettent ainsi de faire la morale pour mieux vous descendre alors qu'ils passent leur temps à espionner les autres plutôt qu'à produire des contenus de qualité est sûrement intéressant, à voir avec Sylvain Deauré...

Ce cas de figure extrême ("serial leeching") n'est pas une généralité, mais il n'empêche que ces outils, connus de tous, donnent sûrement des "idées" à ceux qui jettent un œil de temps à autre sur "ce qui se fait dans le milieu". En gros, le principe de la longue traîne se retrouve ici : plutôt qu'un ou deux leechers qui pompent tout ce que vous faites, on a un tableau de plusieurs dizaines de curieux qui vont s'inspirer d'une ou deux de vos sources, ce qui à la finale fait un bon paquet de spots récupérés facilement grâce aux tools (si on en reste au simple netlinking).

Shadow Linking

Les pistes pour tenter de cacher un peu son profil de liens ont été données dans ces différents articles : interdiction aux crawlers de ces outils de parcourir votre site pour en indexer les liens sortants via le fichier robots.txt, htaccess, configuration apache ou cloacking plus fin en ciblant adresses IP, user-agent et tout ce qu'on voudra bien prendre en compte comme paramètre.

Je ne vais pas révéler ici tout cuit les techniques avec le code source qui va bien, si cela vous intéresse vous trouverez très rapidement les infos.

Par contre, puisque c'est au niveau stratégique que cela se détermine, il conviendra, selon vos objectifs :

  • De passer tout votre réseau / PBN (Private blog network) en mode "furtif" avec ces interdictions : ainsi, votre moneysite ne sera pas associé à vos propres liens. S'il s'agit de CP, ça évitera à votre concurrent d'aller vous désavouer trop vite...
  • De semer la zizanie en montrant aux outils sus-cités ce que vous voudrez bien leur montrer, et qui enverrait quelques concurrents dans le décor s'il leur prenait l'idée de vous copier.

Et moi dans tout ça ? 

Je profite donc de ce blog pour me présenter (pour les fainéants qui n'auraient pas pris la peine de consulter les mentions légales puis de googler) : j'ai créé mon premier site en 97. Puis j'ai commencé à bosser en agence de com' en 2000 en tant que webmaster/référenceur. Le référencement naturel j'en fais sérieusement depuis 2004. Le blogging j'en fais depuis 2006. Les MFA j'en ai jamais fait. Les tools de spam genre xrummer : jamais touché.

Et pour autant, je ne dénonce pas auprès de Google ceux qui le font, car je considère que je suis sur la même branche, même si elle a l'air d'être plutôt la branche voisine. Ca reste de l'abattage.

Moi dans tout ça par rapport à l'article ?

J'ai un réseau d'une centaine de sites (de vrais sites ou blogs, pas des splogs). Depuis 2001 jusqu'à 2014. Je bloque l'accès à une grosse partie de ces sites aux crawlers de BLs depuis quelques années déjà, donc je n'ai pas attendu de lire certains pour mettre en pratique. CQFD. Comme je suis pour le référencement "créatif", je n'aime pas les leechers, donc je voudrais pas qu'on m'associe à ceux dont je déplore les pratiques.

Le genre d'article émanant d'agences marketing qui déclarent sur leur blog :

Espionner les concurrents

On peut supposer que l'agence utilise cette technique pour son linkbuilding. J'ai un peu du mal avec le fait que des professionnels prônent ainsi le fait d'aller copier le travail des autres. Je veux dire, si c'est ça le référencement et que je suis un prospect, je vais chercher à faire moi-même; pourquoi payer une agence pour espionner mes concurrents et aller poser mes liens au même endroit s'il suffit d'un logiciel pour le  faire ? Pour moi c'est une stratégie moins-disante, qui n'a aucune valeur ajoutée puisqu'elle repose principalement sur l'utilisation d'outils. Alors, au delà des grands discours marketing, quel est le pourcentage de "copier/coller" dans l'exécution des campagnes de telles agences ou prestataires en référencement ?

Pourquoi un tel article ?

A la limite, même si mon réseau était connu, pas grave : mes sites sont ce que j'appelle des agents dormants. Ils n'ont "rien à se reprocher", mais rien à se prévaloir non plus puisqu'ils sont rarement positionnés dans le top 30. Ils sont là pour le jour où un prospect/client souhaite promouvoir un site qui sera de la même thématique.

Pour certains, ce que je fais est une pure aberration. Cela fait en effet des années que je paie des NDD et des hébergements pour ma centaines de sites sans aucun retour financier. Je vois ça comme un investissement, car pour les logiciels qui pratiquent l'horodatage, le profil de mes sites n'a pas bougé depuis des années : pas de pub, pas de lien footer, très peu de blogroll, très peu de duplicate, etc

Si j'en viens à parler de la possibilité de bloquer l'accès à ces outils, c'est parce que je suis déçu de constater que ma stratégie "naturelle" n'empêche pas de se retrouver malmené par la guerre psychologique de Google : les fameux effets collatéraux que je dénonce depuis mon article Google Panda : le désaveu massif de sites conduit à un appauvrissement d'internet, quoiqu'en disent les défenseurs d'un "web sans spam", puisque des sites intéressants sont éjectés (et pas forcément les miens hein).

Ensuite mon côté punk n'aime pas trop le business par trop opportuniste des vendeurs de pelle, comme déjà dit dans l'énoncé "la course à la conso SEO".

Alors, à bon entendeur, et protégez votre netlinking !

Sources récentes : http://www.nicolasjean.fr/seofall-majestic-domination/ et http://www.laurentbourrelly.com/blog/1547.php

Mise à jour du 27.02.2014

Pour Sylvain Deauré c'est ici http://www.techniques-referencement-seo.com/seo-chocolat/

Pour une solution éventuelle consistant à brouiller les pistes de ces outils de traçage de BL, c'est là http://boost.bookmarks.fr/plugin-wordpress-traceurs-201402.html