SEO fail

Google Boulettes Academy – épisode I

  • Date : 24 Juil 2014
  • -Auteur : Sébastien VALLAT
  • -Catégorie : Référencement naturel & Contenus
  • Votre vote :
    1 Star2 Stars3 Stars4 Stars5 Stars
24 Juil 2014

Réaliser des audits de site est rarement ennuyeux : on est sans cesse surpris des techniques involontaires ou non à l’origine de graves pénalités (dans le pire des cas) ou à la construction d’un large boulevard aux hackers du monde entier. Bref, entre :

  • « Oui-Oui  fait du référencement »,
  • les solutions tordues pour tromper Google,
  • et les CMS que l’on ne maîtrise pas
  • etc.

La liste est longue. Très longue.

Sur ce blog, je vous livrerai donc régulièrement quelques boulettes plus ou moins amusantes, ou plus ou moins dramatiques, rencontrées au cours de ces dernières années.

Des pages dupliquées à foison

Créer quelques dizaines de pages pour un site, et au bout du compte en avoir 20 fois plus repérées, crawlées, et en partie indexées par Google, est aussi l’un des grands classiques sur lesquels on pourrait écrire un paquet de posts (ce dont je ne me priverai sans doute pas). Faute de règles de réécriture, d’un fichier robots.txt absent (ou mal renseigné) à l’ouverture du site, et une génération de liens dynamiques pour le moins fantaisistes, une même page peut être recréée à l’identique avec plusieurs URL si ce n’est une infinité de fois ! Par exemple, sur la quarantaine de sites audités ces 3 derniers mois je n’ai eu affaire qu’à un seul cas pratiquement correct (cette semaine encore, sur un site possédant 20 pages théoriques, on pouvait déjà retrouver certaines URL écrites sous quatre formes différentes !).

Avec tous les CMS du marché, il est facile d’arriver à créer malgré soi de jolies failles. Et quand on a 95% de pages dupliquées sur un site, on peut s’attendre à de méchants retours de la part de Google via le même plantigrade cité plus haut. Et si Google n’a encore rien décelé (car aucun lien mal fichu n’est accessible sur les pages crawlées) c’est aussi la porte ouverte au pourrissement du site par des personnes ou des robots malintentionnés lesquels eux, vont profiter des failles pour dupliquer x fois votre site par le biais de backlinks et le faire savoir à Google…

Le cas classique, c’est une duplication en ajoutant ou en enlevant les www, index.php… Mais l’ajout de différents paramètres dans la querystring peut aboutir au même résultat selon le CMS utilisé et son paramétrage (par exemple monsite.fr/mapage.html ?id_document=220). Et si par malheur s’ajoute une mauvaise interprétation des liens relatifs, c’est une génération en cascade d’URL pour une même page qui va se mettre en action… Et ça, les spiders n’apprécient guère : heureusement qu’au-delà d’environ 2000 caractères, les URL ne sont pas prises en compte !

La liste des exemples est bien loin d’être exhaustive (et il faut en garder un peu pour la suite),  je terminerai juste par ceux qui ambitionnent le référencement international, et qui activent un peu trop tôt les options de leur plug-in de gestion du multilingue sans avoir traduit les pages, dédoublant ainsi leur site autant de fois qu’il y a eut de langues sélectionnées…

Bien entendu, les remèdes existent, et sauf cas extrêmement grave, on peut arriver à rattraper le coup si l’on s’y prend rapidement. Et la solution la plus efficace que je connaisse, c’est sans doute de demander un audit chez vu-du-web :)!

Voilà, c’est tout pour cette fois. En attendant, ça vous laisse le temps d’examiner l’index de Google, de crawler votre site ou encore de faire joujou avec vos URL.

Bourrinage (de pierre)

L’insertion des mots-clefs au sein des balises principales (la désormais fameuse triplette),  dans le contenu principal et les ancres des divers liens, le tout dans une proportion affolante et avec toutes les orthographes possibles, on le sait, est une technique qui ne date pas d’hier. Sauf que depuis quelques temps, elle est aussi au menu de l’ursidé asiatique élevé par Google. Ce qui n’empêche pas nombre d’experts autoproclamés de diriger toujours leurs  « efforts » quasi exclusivement sur cette tradition antique. Et à ce jeu, certains ont une imagination fertile pour en rajouter une couche en employant des stratégies qui, à défaut d’être efficaces, ont au moins le mérite de faire rire celui qui les détecte.

Dans cet esprit, le propriétaire d’un site dont je tairai le nom (et ça tombe bien, car je ne m’en souviens plus), n’avait manifestement pas envie (ou les moyens) de rédiger proprement des centaines de contenus originaux dans un domaine à la mode (le cashback). Aussi, avait-il développé (lui ou son « expert » SEO) une méthode pour le moins astucieuse pour engorger les pages de mots-clés sans que ces derniers soient visibles par le visiteur innocent : toutes les puces d’une longue liste de marques (plus d’une centaine) affichée sur la plupart des pages du site, avait été remplacées par une image minuscule. Associé à la balise  de chacune de ces images, l’attribut avait été ainsi diantrement bien farci par notre facétieux larron ! Malheureusement pour lui, Google n’a pas bien digéré la farce en question

Share Button