Par trois fois je les renierai

(Article invité de Sylvain Deauré)

Rassurez-vous, ce n’est pas un Nième article pour vous annoncer la disponibilité de l’outil de désaveu de liens Google.
Plutôt quelques précisions quant à la manière dont fonctionne Google, et par là, pourquoi il faut être parano, tout comme pourquoi certains scénarios d’usage « NSEO » de cet outil ne sont pas crédibles.

Nombreux sont en effet les SEOs pénalisés par penguin qui se ruent sur l’upload de listes de liens « pourris ».
C’est prévisible : c’est déjà écrit plus ou moins comme ça dans l’évangile :
« Cette nuit, avant que le pingouin n’ait chanté 2 fois, par trois fois tu renieras les liens »

  • Cela peut-il aider le site ainsi nettoyer à revenir ? C’est fort possible.
  • Un site renié par trois fois va-t-il plonger ? Rien n’est moins sur
  • Peut-on pénaliser un site en reniant ses liens en masse ? Sans doute, avec un volume conséquent
  • Cet outil est-il une bonne chose pour les webmasters et les seos ? Non, assurément non.

Je m’explique.

Comment fonctionne Google ?
De manière schématique, Google a un algorithme de base, basé sur de très nombreux critères pondérés.
Au dessus de cet algorithme, s’empilent des filtres qui affinent (ou pénalisent) chacun à leur tour.

Pour chaque critère, pour chaque filtre, Google peut ajuster les paramètres, et pousser les manettes plus ou moins dans un sens ou dans l’autre.
Hop!, on donne plus de poids au title; hop!, on donne moins de poids au nom de domaine; hop!, on pénalise plus les ancres peu diversifiés, hop!.. etc.
Ces ajustements, très fréquents, sont le fait de décisions humaines, comme de rétroaction sur de gros ensembles de données.
Et oui… Google ne navigue pas à vue, au feeling, au doigt mouillé (même si parfois, on se demande).
« Bon alors les gars, aujourd’hui, on touche à quelle manette ? je pousse un peu par ici, je tire par là ? » huhu…

Non. Pour ajuster les manettes, Google se base avant tout sur des outils statistiques, et sur l’ensemble de données énorme qu’il a à sa disposition. Typiquement, il va attaquer le problème sous un angle particulier:

Bon, aujourd’hui on va examiner le problème des liens de faible qualité (ne me demandez pas ce que ça veut dire)
On prend un gros échantillon de sites témoins, on demande à des quality raters de dire si tel ou tel lien est bon ou mauvais.
On fait passer le même échantillon dans la moulinette, et on ajuste les paramètres pour que le résultat de la moulinette soit le plus proche possible du résultat humain. Sur l’échantillon.
C’est comme un sondage. On peut se planter.
La moulinette ne donne pas le même résultat que l’humain
Les critères donnés comme règle à l’humain peuvent être insuffisants ou biaisés.
Et même si c’est très proche, sur un autre jeu de données, ça peut diverger.

Mais bon, peu importe, on recommence, on prend des échantillons de plus en plus gros, on tente de se rapprocher de plus en plus de l’humain.
Pour les bisounours, tout va bien. Je ne fais que de bons liens, que du bon contenu, je suis un bon élève, j’écoute papa Google, je suis dans le vert, je dors tranquille. Merci Google de pourchasser ces méchants pirates rouges. Il y aura bien quelques effets de bord, des WTF qui ne sont ni rouge ni vert, mais bon, à la guerre comme à la guerre, non ?

Dans la vraie vie, on est très loin d’un clivage aussi évident…
Qu’est ce qui est naturel, qu’est ce qui est de la « manipulation » aux yeux de Google ? Tout lien posé volontairement est par nature, manipulateur.
D’autre part, quand on prend un peu de recul, on se rend vite compte que le vert et le rouge sont bien plus proches et difficiles à discerner qu’on ne l’imagine naïvement (souvent bien plus proche, et aux contours moins net que le visuel ci contre ne le montre).
Un même lien peut être « propre » ou « sale » selon le site cible, son ancre, le texte qui l’entoure.
Un article qui a 200 commentaires peut être un super article de référence argumenté qui attire les réponses, comme une immonde page bourrée de commentaire en auto approve.
Chaque site « moyen » sur le net, a (peut être) un ou deux « bons » liens, quelques « mauvais » liens et une tripotée de liens « wtf »
La moyenne des sites est gris. Tristement grise.
Ce que Google essaye de faire, c’est de discerner des nuances de gris. Gris c’est bien, c’est moyen. Gris c’est pourri, mais c’est moyen, c’est normal.
Gris trop clair, c’est louche. gris trop foncé on tape.

Le problème de Google devient alors évident :

  • il lui faut de plus en plus de données à digérer
  • il lui faut de plus en plus de « notes » et « votes » humains pour étalonner finement sa moulinette.

Les quality raters, c’est bien, mais il faut les payer. Et puis ils ne savent pas forcément ce qui est « bien » ou « mal ».
D’ailleurs, même chez nous (Google), on a du mal à définir ce qui est bien ou mal, alors…

Ah, si seulement on pouvait utiliser les webmasters, les seos, et leur demander de bosser pour nous.. de dénoncer les sites, les liens qui ne sont pas bons… enfin, ceux dont ils pensent qu’ils ne sont pas bons…
Ca nous en ferait ça, des données, des retours humains qualifiés, des choses à mouliner…

Le truc, c’est qu’ils vont nous voir venir, personne ne va le faire; pas en quantité suffisante. Il nous faut du volume, des listes de liens plein la baraque, il faut alimenter la machine les gars, trouvez un truc !

Le truc ? Facile !
Suffit de donner un coup de pied dans la fourmilière. Un grand coup de tatane, on tape au pif (ou presque, on a quand même une vague idée) et on écrase des fourmis. Rouges, vertes, bleu, on s’en fout un peu. C’est le nettoyage de printemps.
Tiens, on va lui donner un nom d’animal sympa, comme « manchot » (penguin en anglais) ça va occuper les seos un moment, vont s’amuser tiens. S’arracher les cheveux, pleurer après leurs sites, retirer des liens.
Puis on les laisse mariner un peu, ok… là, on en remet une couche, allez, on y va franco, on secoue tout ça.
Maintenant, qu’on se le dise, fini les bls à la pelle messieurs, les liens peuvent vous pénaliser, le lien fait mal, le lien, c’est le mal. On veut tout égaliser, plus de liens, le lien ça sert à rien, le lien est manipulateur, le lien est menteur, le lien est voleur.
Oubliez le lien. Utilisez vos profiles google, utilisez +1, laissez nous vous tracer partout où vous allez, ne faites plus de lien.

Et quand c’est bien mur ? hein ? ben on lance notre outil de désaveu de liens pardi.
Le lien fait mal ? on peut arranger ça, facile. Faut juste le faire vous même, les cocos, ok ?
Vous allez bosser pour nous; c’est votre boulot les liens ? ben voilà des liens à virer, lâchez vous, on n’attend que ça.
(Fallait pas parler crowdsourcing au VLC2012, Kevin, fallait pas en parler…)

Dans une opération à deux temps, Google a embauché mieux qu’une armée de philippins. Google a embauché, sans débourser un centime, une armée de webmasters et seos qualifiés qui vont faire le ménage pour lui.

Bien sur, ça va marcher. Bien sur, il y aura un impact: c’est la carotte : individuellement, ponctuellement, les liens que vous allez désavouer ne compteront plus pour VOTRE site. ça oui.
Des sites vont sortir de pénalités, ça sera la deuxième ruée vers le désaveu, l’eldorado de la dénonciation, le règne de la balance…

Pénaliser les sites désavoués ? Pas directement. Google ne fonctionne pas comme ça.
Toutes les données seront agrégées. des points communs aux liens désavoués seront extraits des moulinettes, comparés aux indicateurs existants, serviront de base à de nouveaux indicateurs.
Et en sortie de moulinette, avec en grande partie les données bénévolement fournies par tous nos gentils seos de toutes les couleurs, Google aura entre les mains un filtre qui, il l’espère, fonctionnera pour un temps mieux que les autres.
Indirectement donc, oui. mais de manière globale. Google fait rarement de frappe chirurgicale. Les pénalités algorithmiques sont bien plus fréquentes que les manuelles.

Utilisation massive de machines, de robots, crowdsourcing, tracking, linkbaiting… tout ça pour amener du monde sur son money site…. Finalement, Google n’est qu’un black hat comme les autres.

Je sonne l’alarme !
Webmasters, Seos: on vous ment, on vous spolie !
Allez-vous comme un âne manger la carotte, ou au contraire vous assoir dessus ?
Cruel dilemme, n’est-ce pas ?


A propos de l’auteur:
Sylvain est un SEO, développeur, tombé tout petit dans la marmite du hacking (au sens noble du terme).
Il aime bidouiller et développer des outils étranges, comme son dernier né, xSpin, un synthétiseur de spin polymorphe.

NDE: Je remercie vivement Sylvain pour ce guest post et pour l’aide qu’il m’apporte lors du concours Penguinzophren.
Alex.

Quelques liens corrélés sur le sujet :

Cette entrée a été publiée dans Actus. Placez un signet sur le permalien.

15 Responses to Par trois fois je les renierai

  1. Svetlana dit :

    Que dire, bravo !

    C’est tout simplement la stratégie de Google, faire bosser l’humain (gratuit) à sa place. Ca me fait penser aux déploiement des caisses automatiques chez Carrouf (ou d’autres enseignes philanthropes de la grande-distribution) : tu fais tes courses, tu les scannes, tu les emballes et tu payes… ben oui, ça coute moins cher à Carrouf que tu fasses le boulot de ses hôtesse de caisse, et c’est plus rentable ;) Bon, désolé pour le parallèle un peu hasardeux mais je ne fais quasiment plus mes achats dans ce genre de commerce, je préfère les petits magasins de qualité… Vivement la diversité dans les moteurs de recherche mais ce n’est pas demain la veille malheureusement !

    Pour ma part,; je n’utiliserai JAMAIS cet outil pervers de désaveu, j’assume mon linking !

    Remarque, la prochaine mise à jour s’appellera peut-être Dindon (de la farce) !

    • Alex dit :

      Oui, c’est un coup classique.
      Recaptcha, c’était déjà dans la même veine. Et c’est passé comme une lettre à la poste, on trouverait presque ça normal; et puis on a decaptch-machin, alors on s’en fout… sauf que ce n’est pas neutre, il y en aurait des choses à dire là dessus…

  2. Le Juge dit :

    Il est tres tres bon cet article – pas grand chose a dire de plus – c’est plus ou moins comme ca que je pense que la chose va fonctionner. Je ne me fais aucun souci par rapport a un eventuel usage de cet outil pour du NSEO, j’ai plus d’inquiétudes par contre en ce qui concerne les effets de bords – bien entendu les penalités des sites désavoués ne seront pas direct et seront modérées par une moulinette mais pour le coup ce n’est pas Google qui me cause du souci, c’est l’armée d’imbécile qui va se ruer sur l’outil pour tailler en masse tous les liens qu’ils ont précédemment créés. Ceux qui soumettaient du CP a la pelle. Attention je ne dis pas qu’il faille faire revivre tous les CPs mais certaines penalités intrinseque au fait que ce soit de mauvais sites mais plutot du fait que les imbéciles qui y ont publié n’ont pas assez varié leurs ancres, ou sont allé trop vite – et malheureusement ces imbéciles – nombreux et incapables de faire la différence entre un bon lien et un mauvais lien risque de donner de nombreux mauvais signals a Google.

    • Exactement, c’est tout a fait la dérive que je crains, et par la même occasion, les limites de la puissance de Google. Heureusement !
      En jouant à ce jeu la, il est bridé par la médiocrité ambiante moyenne.
      Il ne peut pas vraiment faire la différence entre le SEO chirurgical qui lui soumet 2 liens (ou les 1000 d’une vraie attaque NSEO) et le webmaster du dimanche qui va lui soumettre ses 2 liens annuaires (ou ses 1000 urls de blast fiverr).
      Des données en masse, oui. Des données qualifiées, nettement moins.
      Des données utiles finalement ? l’avenir le dira.
      D’où d’ailleurs ma boutade chez Raph (qui n’est pas si folle) de polluer cet outil en masse avec des profiles Google, des résultats de serps, des liens wikipédia…

  3. Labisse dit :

    C’est parfaitement argumenté, expliqué, détaillé…. sur le fond tu as peut-être raison, du moins ce scénario est parfaitement plausible pas de doute là dessus, mais sur le coup j’ai tendance a croire que GG a lancé ce tool sans être totalement evil cette fois-ci (ce qui ne veut pas dire qu’il le sera plus tard). Pour moi c’est juste la constatation de la part de GG que #penguin est un filtre totalement raté (NSEO, effets collatéraux etc…) et que la seule manière de faire marche arrière (sans le dire) c’est « désaveu de liens » , rien de plus.

    • Sylvain dit :

      Je peux être d’accord, Clément : l’option « Fuck up, on sort une rustine facile pour réparer ». Il y a un doute sur l’aspect prémédité ou pas de la chose.

      Ceci dit, quand on voit la boulimie de Google pour tout ce qui concerne les données, qu’il collecte ou achète à tour de bras (que ce soit pour indexer – cartes de la lune, des fonds marins, knowledge graph, google products… – ou pour son usage propre – tracking, cookies, google car avec scan wifi,remontrances de la cnil… -) il me semble évident que même si tel n’était pas l’objectif au départ, ces données feront forcément l’objet d’une exploitation. Les données, et encore plus les données utilisateur, sont devenues le cœur de Google.
      Quant à une hypothétique ligne directrice « Don’t be evil » (je sous titre, « White hat ») de Google, Papy spinning a publié un article assez édifiant sur le sujet qui ne laisse pas place au doute. Google reste un monstre à plusieurs têtes, et chacune fait un peu ce qu’elle veut. Il ne faut pas forcément chercher de (ou croire en une) cohérence globale ni politique stable sur le long terme.

      Dans le doute, j’attends déjà les premières remontées (délai de prise en compte selon Google « plusieurs semaines »: de quoi laisser planer le doute sur l’efficacité de la manip) pour voir si cela a un effet, et de quel ordre.
      Si c’est le cas, en bon black hat il faudra comme Google jouer sur les deux tableaux, et utiliser nous aussi l’outil sous ses deux aspects: dépénaliser nos sites tout en rendant inutile les données globalement collectées (ne jamais envoyer de données pures, mais toujours mixer avec du bruit pour avoir un rapport signal sur bruit faible).

  4. John Doe dit :

    Suis pas fan de la carotte…je préfère la purée de patates ^^

    Sylvain, faut prendre des vacances un coup hein ! Tu commences à me faire peur là : D

    Super article en tout cas, en espérant qu’il soit lu par le plus grand nombre.

  5. Doeurf dit :

    Exactement le sujet que je voulais aborder, en quelques mots, allez-y les SEO montrez nous ce que vous pensez être des mauvais liens, des pages spammy, … bref montrez nous votre stratégie en la démontant vous même après la bonne couche de parano qu’on a provoqué.

    Hé bien je ne ferai pas parti de ceux qui utiliseront cet outil justement pour ces raisons. Non mais pi quoi encore, tu veux pas non plus que je travaille gratuitement pour toi Google, d’ailleurs je le fais déjà bien assez en te permettant d’indexer des milliers de pages et d’afficher des pubs à côtés des résultats de recherche générés grâce à celles-ci !!! Heureusement que tu me rend quand même un peu :p

    • Alex dit :

      Oui, tu mets un peu le doigt sur la relation « je t’aime, moi non plus »
      - entre les Seos et Google d’une part (les seos manipulent Google car il apporte du traffic, mais rien ne les oblige à utiliser cette source, Google ne leur doit rien, ce n’est pas la mère Thérésa des webmasters)
      - entre Google et ses utilisateurs d’autre part (Google est censé fournir de la pertinence dans ses résultats pour garder ses utilisateurs, mais cherche également à monétiser au maximum ces mêmes utilisateurs : il aime ses enfants mais les fait bosser gratos et les vend)

  6. Soul dit :

    Et ba dis donc Alex ta de la chance, c’est pas tout le monde qui invite Sylvain sur son blog. En tout cas super article, j’approuve. Autant j’utilise gmail mais les webmaster tools non merci.

    J’espère que tout le monde ne va pas se ruer sur l’outil c’est un gros footprint seo…

  7. Julien dit :

    Un article tres complet, apres si des personnes commencent à faire du Nseo avec ce type d’outils.. Ce monde du web est vraiment lache par periode :/

  8. Valéry dit :

    Excellent article, mais personnellement je ne vois pas les choses tout à fait comme ça.
    Je pense sincèrement que Google ne veux pas faire confiance aux seos et que s’il met à disposition son outil de dénonciation c’est pour pour qu’il serve de pansement après une mise à jour pour désorienter les seos qui a surtout désorienté son index…
    La question est que fera t-il des données de cet outil, sachant qu’elles vont provenir des méchants séos et quelles ne sont pas forcément sures et qu’elles peuvent leurs permettre d’avoir une nouvelle influence sur son index…
    Moi je propose un petit test, se mettre à 200 ou 300 pour signaler une URL style webrankinfo et voir ce qui se passe, mais ça, c’est parce-que je ne suis pas propriétaire …

  9. Emile dit :

    Assurément tu es dans le vrai. Maintenant, là ou je me met a avoir des doutes dans ce que tu écris, c’est quand tu dis que trop blanc ça fait louche. Alors quoi… mon site ranké uniquement avec du lien propre en faible quantité devrait donc avoir un peu de liens crade pour que l’algo de GG puisse trouver mon mélange « naturel » ? La j’en suis pas sur. Pour ce qui est de cet outil mis en place… je ne le toucherai pas pour pleins de raisons. Je préfère encore récupérer le contenu de mon site shooté, le faire désindexer fissa, puis recréer la chose sur un autre domaine moins EMD … moins PMD, rajouter du contenu au précédent, puis re-diriger les liens de mon ancien site vers le nouveau.. puisque j’ai la main dessus. Et aucun 301 (puisque je prévisionne que dans la suite des temps les 301 seront morts) ou du moins qu’il faudra les valider aussi via GWT. T’en penses quoi ?

  10. Yep Emile,

    Pour être précis, je ne dis pas que trop clean (blanc je ne connais pas) va pénaliser ton site.
    Mais que uniquement des liens « top qualité » léchés jusqu’au bout du poil, c’est un profile de liens non naturel.
    Par essence même.
    Personne qui ne parle de ton site sur un forum ?
    Aucun agrégateur de flux qui a repris ton lien ?
    Personne qui n’a cité ton site en commentaire sur un blog ?
    L’auteur du site/blog ne s’exprime nulle part, n’a aucun profil social, aucune signature ?
    Aucun site de statistique qui connait ton site ?
    C’est tout aussi artificiel que 10000 liens profiles forums.

    Pénalisé ? je ne pense pas en l’état actuel (quoique, ça dépend du type de liens, dans cette stratégie à faible volume, un seul lien dissonant, type d’un gros pr taggué « vente de liens » peut tout faire capoter), mais si les données de Google vont dans ce sens là, c’est quelque chose qui pourrait venir.
    La moyenne des sites reçoit une part de liens pourris. Pour être dans la moyenne et passer incognito, il faut une part de liens pourris. Même si à court terme ça pénalise un peu le ranking, sur le long terme c’est un bon alibi. Google ne sait pas ce qu’est une stratégie, des liens « propre » ou « sale ». Il sait ce qu’est la moyenne, suppose que la moyenne ne triche pas, et examine ce qui sort de la moyenne.
    Ne fais par l’erreur de confondre la communication de Google (fait pas ci, fais pas ça) avec ce que Google sait identifier et éventuellement pénaliser (ce qui sort du lot)

    En ce qui concerne ta stratégie pour un site shooté, oui je serais plutôt dans ton optique:
    tenter un minimum de sauvetage (virer les quelques liens maitrisables qui peuvent faire du mal)
    et voir si ça bouge. Si la pénalité reste avérée, faire monter un domaine de secours ou désindexer et tout basculer ailleurs. Par contre, j’use de la 301. Tant que ça marche, j’utilise.
    Si un jour ça capote, on verra. En attendant ça rend bien service. Je n’espère pas trouver LA méthode imparable que Google ne pénalisera jamais, c’est illusoire : à partir du moment ou une méthode fonctionne et est utilisée à grande échelle, Google le sait et prend des contre mesures. Tu peux courir devant le train, pas l’arrêter ;)

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>