Algorithme Google pingouin - référencement

Qu’est ce que Google Penguin ?

La notoriété par le biais de liens externes est l’un des piliers du référencement. A l’origine, le « Page Rank » (PR), établi par Larry Page, l’un des fondateurs de Google, était un indice calculé principalement sur les liens entrants d’une page, plus précisément leur cheminement, par un système de distribution d’un indice représentant le « jus SEO » total de toutes les pages indexées. Dans cette logique, le nombre de pages indexées pour un même site avait aussi son impact.

Pour augmenter le PR des sites web et gagner des positions, les référenceurs ont alors développé des trésors d’imagination pour créer des liens et des pages par milliers, si ce n’est par millions, depuis des réseaux de sites web, avec un contenu pauvre parsemé de liens ( « des fermes de liens »), pour redistribuer de manière plus ou moins fine le PR et le concentrer vers les pages clefs du site (pratique dite du « PR sculpting », qu’il soit interne au site ou par le biais de sites externes). Par exemple, pendant longtemps, pour bien se positionner sur une requête donnée, il suffisait souvent de cumuler des quantités de liens dont l’ancre exacte depuis les pages sources correspondait plus ou prou à la requête ciblée.

Selon Google, en théorie, un lien externe doit être le plus naturel possible, c’est pourquoi le moteur emploie une très grosse partie de ses efforts pour faire le tri entre ce qui est lien naturel et lien artificiel, détecter les réseaux de site destinés à augmenter le PR de quelques sites en particulier, les fermes de liens, ou encore les liens « achetés » et non déclarés comme tel. En Avril 2012, Google a ainsi lancé « Penguin », un filtre destiné à traquer et pénaliser les sites qui bénéficiaient directement de ces pratiques jugées agressives. Cette première mouture s’est surtout intéressée aux liens pointant vers la page d’accueil d’un site web, celles qui suivront iront beaucoup plus loin dansl’analyse, impliquant ainsi la contextualité des liens et la qualité du texte des pages sources. La détection de la stratégie consistant à créer des quantités de micro-sites uniquement destinés à pointer vers un site principal a également été mise à l’œuvre

Pour sortir de Penguin, il ne faut pas être manchot !

Le résultat a permis l’éviction des Serps de très nombreux sites qui pratiquaient des techniques de « linking » sauvages, mais Penguin (aidé de Panda pour la détection des pages pauvres) a entraîné aussi souvent dans les limbes des pages de résultats des sites qui faisaient l’objet malgré eux de liens spammy. Devant les plaintes de la communauté web, Google a alors mis en place un outil de désaveux via Google Search Console, faute de pouvoir faire mieux, mais il fallait attendre la mise à jour du filtre pour pouvoir retrouver son classement « normal ».

Désormais, Penguin est intégré à l’algorithme principal et il est possible de se voir réhabiliter en quelques semaines si le nettoyage de liens a été fait correctement.  En parallèle, les professionnels du « Seo black hat » n’ont jamais désarmé et continuent à créer des réseaux à la pelle et de moins en moins détectables (à partir d’une certaine complexité, les ressources que Google devrait allouer pour les découvrir seraient trop coûteuses) mais les moins scrupuleux utilisent les failles des plugins ou des modules des CMS les plus courants pour s’en servir de cheval de Troie : les sites « victimes » fournissent des liens malgré eux et servent en même temps de fusibles.

Il s’agit donc d’être en permanence vigilant sur les sites vers lesquels on pose des liens, leur évolution dans le temps (un site « propre » au moment où l’on (nous) pose un lien peut devenir dangereux au fil du temps), mais aussi sur les liens externes présents sur nos propres sites.  Si vous pensez avoir été pénalisé sans que vous puissiez en déterminer l’origine, n’hésitez pas à nous contacter pour profiter de notre expérience et de nos outils.