Désavouer un lien peut vous apprendre beaucoup sur le SEO

Il y aura peut être bientôt du côté de chez Google un tool pour désavouer un lien que vous ne voulez pas pour votre site web. Pourquoi en est on arrivé là? (Bing le propose déjà dans son webmaster’s tool.)

Petit historique sur l’algorithme général de Google

Ce qui fait la différence de Google par rapport à ses concurrents lorsqu’il était sorti, c’était qu’il s’appuyait sur les liens hypertexte pour classifier un document sur le web, et non seulement les facteurs on page.

Ainsi plus un site a de liens plus il sera fort dans les serps. Les seo on donc commencé à abuser de ce critère, poussant l’art jusqu’au niveau black hat.

Plus tard Google a dit que trop de liens avec des ancres de texte optimisé (c’est à dire une trop grande proportion d’ancres similaires par rapport au nombre total d’ancres trouvés) est un signal de spam. De même si un trop grand nombre de liens se montrent sur un court lapse de temps, alors c’est aussi un signal de spam.

Ces deux critères conjugués sont utilisés pour filtrer une site ou un groupe de pages web.

Le côté pervers de l’algorithme

Seulement voilà, si on pousse le raisonnement plus loin, tout un chacun peut générer à votre insu des liens en masse et pénaliser votre site ! on appelle cela du negative seo ou NSEO.

On a eu des exemples de site trustés victime de NSEO ( SeoFastStart de Dan Thies ), donc personne n’est à l’abri du NSEO.

La solution ? désavouer un lien !

Cette idée n’est pas neuve, j’en ai déjà parlé avec Philippe Yonnet au  Seocampus. Donc dans Google Webmaster Tools, vous pourriez désavouer un lien, magique non? Il semblerait qu’il y ait des effets non voulus et gênants, mais cet article ne traite pas de cela.Donc en principe désavouer un lien c’est plutôt pas mal.

Et vous pourriez en profiter pour faire des test SEO

Et là Google vous ouvre un boulevard. Imaginez que vous désavouiez une série de liens et que cela ait un impact sur votre ranking, n’est-ce pas déjà une information cruciale que vous donne Google? Vous pourriez même faire une batterie de tests, et ainsi observer au millimètre les liens et donc les sites, qui ont de l’influence sur le ranking, et par recoupement et sur une grande durée il faut quand même le signaler, vous pourriez obtenir de précieux renseignements.

Nul doute que Google vous dira quelque chose comme :  “vous désavouez un lien , libre à nous de le prendre en compte ou non”, bref du Google tout craché.

 

Refschool est un référenceur / développeur full stack, il a commencé à faire du développement de site web, avant de brancher vers le développement web, front end et back end. Il poursuit sa passion de référenceur en bloggant de temps à autres sur le sujet du webmarketing.

Comments on this entry are closed.

  • Salut copain,

    Je suis en train de rédiger un billet sur la guerre psychologique menée par Google.
    Ils sont en train de se taper sur le bide à Mountain View en observant la foire actuelle, mais ils se trompent sur l’issue finale.

    Juste un mot sur le NSEO. Faire tomber un site établi n’est pas si aisé. On pouvait déjà sandboxer un site neuf, bien avant Pinguin et ceux qui peuvent être touchés par du linking pourri ne sont pas si vaillants. Du coup, cela n’est pas une alternative si intéressante. Ceux qui sont capables de réellement attaquer un bon gros site des familles demeurent une minorité et ils n’ont pas du tout attendu ce filtre pour utiliser des méthodes radicales (hacking, etc.).

    • je suis impatient de lire ton post 🙂
      Si le NSEO devient une façon de faire tomber la concurrence parmi les nouveaux entrant, je trouve ça limite, très limite, mauvais pour le karma. Il y a eu des coups d’éclat pour dire que le NSEO était possible même sur des gros sites, mais ce qui est a craindre ce sont les coup bas. D’autant que générer des liens en masse semble être devenu plus accessible aujourd’hui.

      • Je voulais dire que le NSEO sur un nouveau site était possible bien avant Pinguin.
        La crainte des attaques est montée en flèche avec l’arrivée de ce nouvel animal, mais la fiction dépasse de loin la réalité.

      • Je connais personnellement une société qui à été victime de NSEO et impossible de contacter google, à part recevoir des messages dans webmastertools comme quoi il y a de la manipulation de liens… Google n’en a rien à faire.

  • Bonjour,

    Je lis souvent ce genre de choses :
    “Ce qui fait la différence de Google par rapport à ses concurrents lorsqu’il était sorti, c’était qu’il s’appuyait sur les liens hypertexte pour classifier un document sur le web, et non seulement les facteurs on page.”

    Mais Google n’a rien inventé dans ce domaine. Au moment de la sortie de Google, plusieurs moteurs de recherche utilisaient déjà les liens entrants (popularité et ancres) comme critère, notamment Altavista ou même l’antique Excite.
    Google a simplement poussé le curseur un peu plus loin et rendu ce critère parmi d’autres majeur chez lui, avec le succès que l’on connaît par la suite.

    Plus généralement, je déconseillerais d’utiliser cet outil de désaveu de liens autrement que pour résoudre un problème ou sur un simple site de tests.

    L’usage de cet outil à fins d’optimisation du SEO ne peut conduire qu’à des profils de liens encore plus artificiels et déséquilibrés (et donc susceptibles d’attirer une pénalité).

    Mieux vaut complexifier les profils en acquérant plus de liens, de sources plus diverses, que de jouer avec le feu avec un tel outil.

    • j’aurais dû me documenter un peu plus je ne suis pas assez vieux pour avoir bien connu les autres moteurs de recherche (après avoir vu ton site je pense que tu es un dinosaure du seo). Cela me parait finalement logique que les liens hypertextes soient utilisés, cependant c’est Google qui a poussé le plus loin la logique et aussi d’un point de vue marketing avec la fameuse barre verte.
      Je pense que cet outil va ajouter du travail un peu plus pour Google (les connaissant ils risque de tout automatiser). Je pense que GG est preneur de toute information supplémentaire ça les fait pas peur et de l’incorporer dans leur analyse.
      Avec cet outil on explore de nouveaux territoires et c’est pour ça que je parle au conditionnel tellement c’est prospectif sachant que l’outil n’est pas sorti et peut être ne sortira pas on verra.

  • Moi je pense que Google à commis une erreur de communication majeure avec panda et penguin. Tout le monde les deteste maintenant et cherche à travailler SANS eux !!

    1) La grave erreur de panda : le duplicate content
    Admettons qu’un médecin trouve un remede miracle contre une maladie… si plusieurs sites reprennent l’information les sites sont pénalisés. Merci google de ne pas sauver des gens qui auraient pu trouver ce qui aurait pu leur sauver la vie.

    2)Penguin : la guerre du lien suroptimisé
    A l’origine c’est monsieur google qui a conseillé de mettre des liens ancrés, afin qu’on puisse savoir de quoi un site traite… alors oui monsieur je change d’avis, tu nous prends pour des abrutis.

    En gros google veut vendre de l’adwords car sa société va mal ( doublement des effectifs pour un chiffre d’affaire qui stagne, donc des actionnaires qui ralent… ).

    • il en coulera de l’eau sous les ponts avant qu’on ne dépende plus de Google. LE problème du duplicate content se rapproche de plus en plus de la quadrature du cercle. Personne nin Google ni les webmasters n’ont encore trouvé de solution pérenne.
      Google veut en effet avant tout vendre du Adwods mais il reste de la place (beaucoup de place pour le SEO). Enfin si tu n’es pas dans une thématique concurentielle 🙂

  • Ton article est intéressant mais à terme si Google met en place son certificat ou brevet ou je-sais-plus-quoi qui fait un yoyo pendant une période, comment faire des tests ?

    • tu parles du reranking des résultats en cas modification ON PAGE (keyword stuffing, texte invisible, petit texte, etc et liens), cela rendra plus difficile en effet. Mais en classe scientifique, on m’a dit que quand tu fais un texte, ne joue que sur un paramètre à la fois. Ne bouge pas tes factuers on page quand tu teste les factuer off page.
      Enfin rien n’est dit que ce brevet est appliqué, ni même s’il rentrait en vigueur, le désavouement marcherait, Google se réserve toujours le droit de prendre en compte ou non…

      • Ce sera tout me même très difficile, dans la mesure ou les tests vont devenir extrêmement longs à réaliser et la réactivité face aux changement de l’algo va être fortement impactée.

  • Ce qui est sur c’est que rien ne dit que google agisse ensuite, ils prendront l’info sur les liens à désavouer, ils étudieront ou plutôt décortiqueront certainement le pourquoi du comment une telle demande, mais ensuite ils feront ce qu’ils veulent, et rien ne dit qu’ils ne laissent pas la situation telle quelle, genre en “punition”, au moins pour un certain temps…

    • Google Webmaster Tools c’est comme un confessionnal, on y reporte des choses qu’on a fait, et c’est Google qui en tire le plus grand bénéfice (à l’image de l’Eglise qui q utilisé cet instrument pour mieux diriger).

  • Google a ouvert un véritable boulevard pour la délation d’autrui. et surtout, il permet aux bourrins de créer des liens crado en masse puis de s’en laver les mains.

    En tout cas, un certains nombre de référenceurs jouent le jeu de Google en ayant de plus en plus peur du parc animalier de Google. Et c’est justement sur cela que la firme comptait pour essayer d’assainir les résultats.

    Bref, la fonctionnalité peut-être intéressante pour ceux qui se retrouvent dans une vrai problématique de NSEO, mais comme le disent certains ici, cela existe depuis des années…

    • Quoi l’internet serait un territoire occupé par l’envahisseur Google? pas loin de la réalité, ce qui est sûr c’est que Google a réussi à nous diviser et à générer du bruit pour mieux se servir. Ce qui est sûr c’est qu’il y a pas mal de collabo. Laurent Bourrelly parle de Gestapo.

  • Bonjour,
    Merci pour l’article.
    Google Penguin peut sanctionner une page du site et pas une autre. Ainsi, si vous avez un simple écart aux règles de Google, votre site ne sera pas pénalisé dans sa globalité.
    Il faut toujours faire attention avec google Penguin et Google Panda.

  • Tiens je comprends mieux pourquoi maintenant certaines boites qui m’avaient demandées des échanges de liens m’ont rappelé deux mois plus tard pour me demander d’enlever ces mêmes liens !

  • Bonjour, en lisant les commentaires, je me pose une question a propos du duplicat content. J ai sur mon site un passage qui contient les raisons de travailler avec nous. Puis je le mettre comme article du blog ET sur ma page d’accueil?

    • pas grave tant que le DC est sur ton site, car c’est toujours une page de ton site qui ranke

mautic is open source marketing automation