80 bonnes pratiques de référencement

No 80 - ceramic
Creative Commons License photo credit: kirstyhall

Après près de 6 mois de discussion, d’écriture et ré-écriture, Temesis dans le cadre de ses laboratoires Opquast, vient de sortir la première version de la liste des bonnes pratiques qualité pour le référencement.Ce référentiel comporte 80 critères documentés et couvre tous les éléments habituels concernant le SEO : navigation, liens, attributs alt, etc…

Cette liste n’est pas une liste de suggestions ou bonnes idées de plus. Derrière ces 80 critères se trouve un vrai travail de concertation et de réflexion pour répondre à des règles qui assurent la qualité du résultat :

  • Elles doivent être vérifiables par un utilisateur extérieur au site (ce qui valide leur valeur ajoutée directe pour les utilisateurs)
  • Elles doivent être valables sur le plan international pour tous les sites
  • Elles doivent être réalistes (il est possible de les mettre en oeuvre)
  • Elles doivent représenter une valeur ajoutée pour tout ou partie des utilisateurs de sites et éventuellement pour les administrateurs de sites
  • Elles doivent faire consensus.

Pour y parvenir, la participation d’intervenants et d’experts de mondes divers (référencement white et black hat, accessibilité, qualité pour ne citer que ceux-là)  a été nécessaire. Cette liste n’aurait pas la même portée si elle était juste le fruit de mes réflexions sur un coin de table.

Les bonnes pratiques référencement sont publiées sous licence Creative commons BY-SA et peuvent donc être ré-utilisées gratuitement dans vos oeuvres.

Vous pouvez utiliser cette liste pour contrôler le travail d’une agence de référencement ou effectuer les bases du travail par vous-même.

Un peu de démystification du monde secret du référencement ne peut pas faire de mal.

PS : l’annonce officielle est sur le blog Temesis

Les référenceurs veulent des standards

Solitude
Creative Commons License photo credit: Mortimer62

Il y a quelques jours, le site Search Engine Roundtable a posté les résultats d’un sondage effectué auprès de la communauté de référenceurs qui le fréquente.

A la question « A-t-on besoin de standards en référencement ? », deux tiers des participants ont répondu « Oui ».

Le sujet porte à controverse puisque bon nombre de référenceurs utilisent des techniques « black hat » ou « grey hat » qui ne seront jamais des standards.

Par ailleurs, est-il possible de définir des standards alors que les moteurs ne désirent pas communiquer sur leurs critères ?

Qu’en pensez-vous ? A-t-on besoin de standards en référencement ?

Le référencement, l’ennemi du visiteur

Le Monde - Article: La hausse des adoptions en 2010 est à relativiser
Creative Commons License photo credit: Tonio Vega

Une des méthodes les plus efficaces pour améliorer son référencement est de faire des liens. Les liens sont suivis par les moteurs, de nouvelles pages découvertes et ajoutées à l’index, les ancres interprétées, et du PageRank transmis.

Par contre il serait faux de croire que les liens n’intéressent que les moteurs. Quand je lis un article, j’aime bien suivre les liens vers des articles associés, des définitions ou des points de vue différents.

Ce n’est pas un avis partagé par le journal Le Monde: pour eux les liens ne servent qu’aux moteurs et en tant que tels ils doivent être cachés.

Prenons un article au hasard: Une victoire contre les tracasseries, mis en ligne hier. Cet article comporte trois liens que vous ne pouvez pas voir et pourtant ils sont bien au coeur du texte et sur du contenu visible. On ne parle pas ici de faire un lien écrit en blanc sur fond blanc, mais de ne pas identifier le lien en tant que tel.

Quels sont ses liens ? Le premier se trouve sur la photo, au niveau de la légende: le nom Asghar Farhadi y est cliquable et amène sur la liste de tous les articles le mentionnant sur le site.

Les deux autres se trouvent en milieu de texte dans la phrase: « Cette allusion à Mohsen Makhmalbaf, exilé, et à Jafar Panahi, sous le coup d’une interdiction professionnelle ». Les noms des deux réalisateurs sont en effet cliquables eux aussi.

Cette page n’est pas unique sur le site du journal, loi de là: tous les articles sont truffés de liens masqués, généralement au niveau du nom des protagonistes.

Pourquoi maquer ces liens ? Ces liens ont autant, si ce n’est plus, d’intérêt pour les visiteurs que pour les moteurs.

Pourquoi toujours croire que le référencement est l’ennemi du visiteur ? Ce qui plaît à l’un fait généralement plaisir à l’autre.

Le référencement dévoile ce qu’on vous cache

Luc Bag
Creative Commons License photo credit: mikecogh

Ah, les joies du référencement: un monde si particulier, avec ses codes, ses techniques, ses méthodes obscures, ses astuces du jour qui sont la solution à tous les maux…

Tout le monde sait à quoi sert le fichier robots.txt: il permet de donner des consignes aux moteurs. Par exemple, on peut dire à Google qu’il peut visiter tout le site mais refuser à Bing d’accéder à un dossier ou certaines pages.

Il est donc normal de mettre dans le robots.txt la liste des répertoires et pages qu’on ne veut pas que les moteurs lisent et encore moins indexent: fichiers d’admin, répertoire cgi-bin, dossiers de mise en cache, etc…

Et bien sûr les pages spécifiques qu’on veut cacher au monde.

Prenez le journal en ligne Rue 89. En 2008, il a publié un article au doux titre de « En onze mois, Sarkozy a produit autant de CO2 que 823 vaches ». Cet article n’est pas indexé par Google ou les autres moteurs parce qu’il est dans le robots.txt du site. (Vous trouverez facilement cet article ailleurs puisqu’il a été diffusé sur de nombreux autres sites). Par contre il est toujours présent sur Rue 89. Vous en voulez l’adresse ? Lisez le fichier robots.txt du site.

Prenez L’Internaute. Le site publie des critiques, des commentaires, des communiqués. Certains sont ensuite supprimés. Vous en voulez la liste ? Lisez le fichier robots.txt du site.

Prenez L’Express. L’hebdomadaire publie de nombreuses enquêtes mais il faut croire que certaines dérangent pour qu’elles se retrouvent interdites de lecture par les moteurs. Lisez le fichier robots.txt du site.

Dans tous les cas, si ces articles n’ont plus lieu d’être, pourquoi n’ont-ils pas été supprimés des sites en question ?

Le fichier robots.txt ne cache rien, il indique juste aux moteurs que vous préférez que ces pages ne soient pas indexées. Les moteurs n’ont aucune obligation d’en tenir compte (même si c’est une attente normale de la part des éditeurs).

Par ailleurs, si vous avez des choses à cacher, il est peut-être judicieux de ne pas les lister dans un fichier accessible publiquement par tous.

Tous les liens ne sont pas égaux pour Google

IMAG0239
Creative Commons License photo credit: GoodNCrazy

Il est notoire qu’une stratégie de référencement doit se baser en grande partie sur la création de liens (« netlinking » pour ceux qui veulent impressionner femmes et maîtresses).

Par contre aux yeux de Google tous les liens n’ont pas la même valeur. Quelques exemples:

  • un lien interne
  • un lien depuis un blog
  • un lien en « no follow »
  • un lien depuis une ferme de liens

Google vient d’ailleurs d’ajouter à cette liste un nouveau type de lien: le lien négatif.

Imaginons que votre produit génère des plaintes. Ces plaintes sont exprimés sur des sites avec un lien vers votre site. Au final, même si vous avez des plaintes, votre référencement s’améliore puisque vous avez plus de liens pointant vers votre site.

Google vient de mettre en place un nouvel algorithme qui identifie ce type de liens et en tient compte en tant que négatif dans ses classements.

Désormais faire du mal à vos clients n’aidera plus votre référencement.

Source: blog officiel Google

La mort de l’outil de suggestions de mots-clefs de Google

Laid To Rest
Creative Commons License photo credit: Two Ladies & Two Cats

Lors de la conférence SMX East qui s’est tenue il y a quelques jours à New York, un responsable de Google AdWords a indiqué que la nouvelle mouture de l’outil de suggestion de mots-clefs ne propose plus que les termes jugés « commerciaux ».

On peut supposer qu’un terme qui ne reçoit que quelques requêtes par jour est immédiatement filtré car « non commercial ». Au final, il est plus rentable pour Google si vous achetez un terme générique sur lequel plusieurs concurrents font monter les enchères qu’un terme ultra-ciblé où vous êtes seul.

Les tests semblent confirmer que pour l’instant les USA sont touchés par ce filtrage alors que d’autres pays ne le sont pas. Par exemple, une recherche sur le terme « facebook » renvoie plusieurs centaines de suggestions quand on choisit Allemagne ou UK comme pays, alors qu’on ne reçoit qu’une poignée de termes sur la zone USA. Faites l’essai, il est révélateur.

Concrètement cela signifie que cet outil n’est plus fiable pour découvrir les mots pour lesquels optimiser un site ou pour trouver de nouveaux termes pour la longue traine.

Cela confirme aussi que Google ne montre que ce qu’il veut bien et que toute personne qui ne dépend que de cette source d’information passe à côté de beaucoup de choses.

La bonne nouvelle est que cela va permettre d’identifier plus facilement ceux qui pensent que le métier de référenceur se limite à prendre une liste de mots chez Google. Si cette liste ne fait que 5 mots, elle n’a aucun intérêt.

Source: Aim Clear Blog

Le cercle vicieux de Google

IMG_2560c
Creative Commons License photo credit: mac_filko

Depuis plusieurs milliers d’années, l’homme se demande qui est apparu en premier: l’oeuf ou la poule ?

Depuis quelques années, je me pose la même question en ligne. Lequel a créé l’autre: Google ou l’optimisation ? C’est une réflexion sans fondement, puisqu’il est évident que l’optimisation existait bien avant Google et pourtant …

Beaucoup de personnes se disent « Google génère la majorité de mon trafic, je dois donc optimiser pour Google ». En faisant cela, la part de trafic apporté par le moteur devient encore plus importante et l’envie de satisfaire Google encore plus poussée.

Au final, on arrive à ne penser qu’à Google au mépris des autres moteurs et au mépris de toutes les autres méthodes de promotion.

Si Google vous apporte déjà beaucoup de trafic, pourquoi ne pas passer votre temps à complémenter par d’autres sources plutôt que d’augmenter votre dépendance à une source que vous ne contrôlez pas ?

Les secrets des référenceurs enfin dévoilés

Magic Kingdom Fireworks
Creative Commons License photo credit: atl10trader

Il y a quelques années, une émission à la télévision a fait couler beaucoup d’encre: des magiciens expliquaient comment réaliser de grandes illusions: femme coupée en deux, disparition d’éléphant, etc.

La communauté des magiciens s’offusquait qu’un des leurs, à visage masqué, se permettait de révéler leurs secrets.

Le magicien masqué se défendit en se justifiant par deux points:

– Expliquer le fonctionnement des tours oblige les magiciens à avancer et à faire toujours mieux. Le renouvellement est nécessaire.

– Savoir comment est fait un tour ne remplace pas le savoir faire et l’expérience du magicien. Le gros du travail du magicien est de faire un show et mettre en scène le tour, pas l’astuce en elle-même.

En référencement c’est la même chose. Beaucoup de référenceurs essaient de faire croire aux secrets du monde du référencement et restent opaques sur ce qu’ils font vraiment et comment ils le font.

Il n’y a aucune raison à cela et je pense qu’ils desservent la profession. Il n’y a pas de magie dans le référencement, c’est scientifique. Expliquer comment faire ne va pas faire du client un référenceur. Rien ne remplace l’expérience et les connaissances acquises par des années de pratique.

En êtes-vous encore à faire cette erreur ?

bruno_le_maire
Creative Commons License photo credit: brunolemaire

J’ai déjà abordé un sujet similaire il y a quelques temps, ici-même, en m’adressant en particulier à tous les fans de chocolat.

Il me semble important d’y revenir sous un angle un peu différent en parlant en particulier d’une fausse bonne idée: multiplier les sites pour améliorer le référencement.

L’approche est simple: pour aider à faire décoller un site qui a un faible trafic, cela consiste à créer un ou plusieurs blogs ou sites qui iront créer des liens vers le site principal et génèreront ainsi du trafic.

En théorie c’est imparable: une des règles du référencement est d’avoir des liens (ou backlinks pour les anglophiles) et quoi de plus efficace que de les créer soi-même ?

Dans les faits c’est un peu plus complexe pour deux raisons:

1- il est probable que les moteurs et annuaires remarquent rapidement la relation entre tous ces sites et ne prennent pas en compte les liens ainsi créés.

2- comment allez-vous faire connaître ces sites ? Au lieu de devoir faire le référencement d’un seul site, vous venez de vous confier la tâche de référencement 5 sites différents.

Le raisonnement est le même si vous décidez d’acheter 50 noms de domaine pour faire connaître votre activité. Comment allez-vous promouvoir 50 noms ?

Le gouvernement l’a bien compris: dans un rapport rendu public le 12 février, il est proposé de diviser par 10 le nombre de sites Internet du gouvernement.

Le référencement est-il encore nécessaire ?

Something's happening at some time and it might involve bacon
Creative Commons License photo credit: jacobms

D’après Compete, une société américaine d’études statistiques en ligne, Facebook a dépassé Google en tant que source de trafic pour les portails majeurs comme MSN et Yahoo.

Et tous les experts du web 2.0 et des médias sociaux sont heureux de dire que ce n’est que le début et que Google est condamné, remplacé par Facebook et Twitter.

J’ai déjà fait un article à ce sujet où j’explique que je doute fortement de ces prédictions, mais il me semble nécessaire d’évoquer un autre aspect.

Même si Facebook apporte plus de trafic à un portail que Google, est-ce pour autant que Google n’en apporte plus ? Est-ce à dire que le référencement n’est plus nécessaire ?

Les publics sont différents, les comportements différents, les résultats différents.

Cette étude de Compete est intéressante mais elle oublie un élément essentiel: la qualité. Est-ce que les visiteurs en provenance de Facebook achète autant que ceux en provenance de Google ? Est-ce que les visiteurs de Google passent moins de temps sur le site que ceux de Facebook ?

Source: SFGate