Ca y est, c’est officiel: à partir d’aujourd’hui Google prend en compte la vitesse d’affichage des pages dans ses critères de classement.
Cela veut dire que si votre site est très lent à charger, il sera moins bien classé que d’autres.
Est-ce pour autant qu’il faut tout sacrifier au bénéfice de la vitesse ? Absolument pas. C’est un critère qui s’ajoute aux 200 autres critères et la pertinence de la page reste le facteur essentiel.
D’après Google cela change le classement de moins de 1% des requêtes. Reste à voir si votre site en fera partie.
Cette modification n’est pour l’instant appliquée que sur Google.com mais il est fort probable qu’elle arrive sur les variations régionales du moteur d’ici quelques mois.
Source: Google Webmaster Central
Cela risque surtout de mener vers des sites optimisés pour la vitesse à tout prix … au détriment sans doute de la qualité du contenu.
Reste à savoir si les scripts de GG qui pénalisent le temps de chargement seront pris en compte ou non….
C’est une très bonne nouvelle.
Mais que vont devenir les sites web ou blogs qui se chargent moins rapidement à cause de la quantité de leurs contenus, souvent de qualités ?
Bonne et mauvaise nouvelle
rien de plus pénible qu’un site lent qui ouvre les pages
au bout de 10 à 15 secondes
la ou le bat blesse par contre
ce sont les sites qui sont sur des serveurs mutualisés et qui pâtissentdun autre site soit mal développé
ou qui a trop de visites
gageons que cela va faire vendre plus de serveurs dédiés
cela fait longtemps que je suis attentif au vitesse d’un site
il faudra faire encore plus attention dorénavant
Tout est effectivement une question de dosage dans les sanctions !
Perso, je pense que c’est une excellente nouvelle. Cela va obliger les créateurs de sites Web a optimiser le temps de chargement de chacune de leur page.
encore un enième critere de Google,le probleme c’est qu’on ne sait plus très bien à quoi ca sert devra tous se metttre à la vitesse de la lumière un jour?;) le probleme est plutot au niveau de mon hébergement,du pack que j’ai choisi et de mon traffic.résultat des courses,encore une fois c’est Google qui mène la danse!:(
Cela va surtout inciter les développeurs à prendre plus en compte le facteur vitesse : non seulement pour les moteurs, mais aussi et surtout pour les internautes!
très bien pour les pros qui savent obtimiser leurs sites, pour les autres au travail et pour les formations bien faites, j’en cherche une moi même afin de la tester et de la proposer sur mon site.
C’est exact mais tout dépend de la vitesse de connexion…
c’est un critère pas très récent on pouvez savoir si son site été performant question vitesse depuis longtemps avec google webmasters
Je pense sincèrement que l’annonce de Google est finalement aussi inutile qu’elle était attendue.
1% des requêtes indique bien que 99% des requêtes resteront inchangées par rapport à l’algorithme tel qu’il était il y a quelques semaines.
Le truc, c’est que, comme c’est Google qui annonce « la vitesse des sites est prise en compte », le business des machines dédiées va exploser… pour absolument rien. 1% de différence.
Actuellement, ceux qui ont des sites lents peuvent souvent les améliorer en conservant leur machine et en configurant un peu mieux leur système. (dans bien 80% des cas)
La deuxième cochonnerie dans le système que présente Google, c’est les labos dans GWT : Si vous regardez les graphes de performance de votre site, vous verrez souvent que les statistiques n’ont rien à voir avec le temps de chargement de vos sites.
Par exemple, sur un de mes sites, Google affiche un temps de chargement moyen de 10 secondes pour la page d’accueil, et ce sur 3 mois ! Pourtant dans la pratique, ma page d’accueil, elle se charge en 1,5 seconde. Devrait-elle être pénalisée ? Non. Donc, ne faites pas attention à ce genre d’annonces du mastodonte, faites votre site comme vous l’entendez, et tweakez les performances comme vous le pouvez, tant que les chargements ne sont pas interminables et que vous tenez le choc de vos visiteurs.
Voila déjà plusieurs mois que Google semble prendre en compte ce critère pour le référencement. C’est assez légitime, puisque pourquoi faudrait il amener du trafic sur un site lent à charger qui ne satisfera pas les internautes. Mais cette modification aura ses limites notamment pour les petits webmaster n’ayant pas les moyens d’investir dans les infrastructures plus puissantes…
Je trouve que c’est n’importe quoi, en quoi un site rapide est-il un site plus pertinent ? Il me semble quand on fait une recherche qu’on ne demande pas si le site cible est rapide à se charger ou non mais si il répond bien à notre question ou non.
Or qu’il soit rapide ou lent ne change en rien la pertinence du contenu, surtout, comme l’a dit « gagner argent blog », un site avec beaucoup de contenu et si en plus le contenu est riche est-il poins pertinent ? A priori il a des chances de l’être plus que les autres mais il y a de fortes probabilités aussi qu’il soit plus lent…
@MaxR : il serait totalement stupide de faire des sites rapides au détriment de la qualité du contenu, ce n’est qu’un critère parmi tant d’autres, le premier étant toujours la pertinence du contenu.
@Nico : À rappeler également qu’un contenu riche ne change pas beaucoup plus de choses niveau pertinence pour Google. Pour Google, la pertinence ça ressemble plutôt à Liens, puis Champ lexical et l’expression elle-même, dans l’ordre de priorité.
Au point qu’appuyer sur le terme de « pertinence » semble être une vague blague de la part de Google.
Le moteur est aussi con qu’un autre, et les vrais changements sur ce moteur concernent uniquement la détection de spam ou de tromperie.
Les liens font loi, c’est pour cette raison d’ailleurs qu’une page peut être référencée pour une expression qu’elle ne contient même pas.
Pour la vitesse des sites, à mon avis pas d’inquiétude. Je sens bien que le seul changement concernera une baisse de classement pour les sites vraiment, vraiment trop lents (10+ secondes par page, par exemple)…enfin, j’espère.
Ce critère est naze car un « rédacteur » n’ai pas forcément un webmaster! Si ça continue, Google va prendre en compte la qualité graphique d’un site (je ne parle pas de structure) et je ne sais quoi d’autre encore …
Bref, va falloir se mettre à la compression « GZip » et à la mise en cache pour ceux qui savent faire…
Le design d’un site est subjectif, c’est l’internaute qui fait la différence.
Tout ce qui peut être mesuré c’est différent…
« Tout ce qui peut être mesuré c’est différent… », oui mais de la à prendre la vitesse d’affichage d’un site comme critère …bienvenue au Olympiade de Google ^^.
Ça va se tasser tout ça après l’effet d’annonce……
Il va falloir que je limite les plugins wordpress alors, parce que pour le moment c’est pas folichons chez moi la vitesse d’affichage !
J’avais déjà remarqué ça lorsque je suis passé à un serveur privé virtuel l’année dernière. Les résultats se sont nettement améliorés au niveau du rang Alexa à la suite de ça. En plus depuis récemment je stocke toutes mes images dans mon compte Amazon S3, ce qui décharge un peu mon serveur, et améliore d’autant plus la vitesse de chargement.
ça risque d’aller à contre sens de la politique d’origine de Google sur le pertinence et le contenu.
et les gens vont faire de petits sites avec moins de contenu pour s’afficher plus vite.
si on part du fait que des phrases hors de contexte peuvent faire passer une information sans consistance, combien vont vite se dépécher d’allerger leur page en perdant l’élément essentiel, le contenu même qui faisait de leur site un pertinent pour Google.
Jean-luc
Je ne pense pas que ce soit le contenu textuel au sens strict du terme qui pèse lourd, mais c’est vrai que sans être agrémenté de quelques images, un texte seul est bien triste…
C’est vrai que j’ai pas préciser sur ce point mais quand je parle de lourdeur toute fioriture confondu si le terme est bien choisi, le texte est lui léger, mais le fond est parfois lourd, pubs du genre scripts externes freinent aussi, le flash, tout un tas de choses, qui pénalisent l’affichage d’un contenu qui lui sera la plupart du temps plus pertinent que des sites sans ses fioritures.
Si ça pénalise de l’excellent contenu pour des raisons que l’on ne peut pas forcément maitriser, c’est dur.
C’est une bonne décision étant donné que la vitesse d’affichage des sites influe vraiment sur la qualité de la naviguation.
Par contre vitesse ne signifie pas forcément, bonne pertinence.
Google webmasters nous aide à savoir si notre site est rapide ou non …Par contre il est vrai que vitesse ne signifie par forcément bonne pertinence comme l’as si bien dit agence web paris 🙂
1 % dit pas Google vas faire bouger tout le monde alors que en fait ça vas pas changer grand chose, Google à toujours besoin de faire parler de lui.
C’est clair que ce critère même si dérangeant certains, va tellement à l’encontre de la politique de qualité par la pertinence des réponses que 1%, ce n’est pas ce qui va cahnger grand chose, bien que celà va quand même pénaliser de quelques places un site dit pertinent qui le jour du passage du scroller, sera freiné par des éléments hors de sa volonté du au reseau lui même.
Jean-luc
Ca ne va pas arranger la tâche du référencement des sites en flash tout ça. Déjà c’était difficile, maintenant ce sera pire encore 🙂
Et ce qui devait arriver arriva! Cela fait longtemps que l’on prêtait à google de vouloir prendre en compte la vitesse de chargement des pages internet.
Comme quoi ce n’est pas que la pertinence des sites qui justifie leur classement mais bien « l’humeur » de google
Heureusement que la pertinence des sites reste présent dans leur algo tout de même !
ça on ne le remet pas en cause, ce critère est incontestablement Important, et ce petit 1% sue lequel on on fait débat n’est pas si génant bien que ce pourcentage peut grossir plus tard mais on verra.
Google fait la pluie et le beau temps mais c’est lui le Chef.
Là, y’a pas vraiment d’inquiétude à avoir mais la vitesse ne fait pas la pertinence et je tenais à le resouligner.
Si on part du principe que l’internaute ne va au dela de la 1ere page de recherche et que même à recherche pertinente, il a un réponse qui l’est autant dans les 3 à 5 réponses.
Les sites long à se charger et pourtant très pertinent vont se retrouver en zone « Invisible » pour l’internaute, et pas toujours à cause d’un critère independant de sa volonté, le reseau tout simplement et son serveur perso sur une heure précise où justement le scroller va passer.
Il y a quelques années, personne ne se préoccupait des backlinks pour le référencement. Aujourd’hui, on ne juste que par ça et tout le monde s’accorde à dire qu’avoir des liens entrants, c’est une preuve de pertinence (avec toutes les dérives qui vont avec).
Là, Google part du principe qu’un site plus rapide répond un peu mieux à la requête de l’utilisateur qu’un site plus lent, je ne vois pas ce qu’il y a de plus choquant.
Est-ce la vitesse d’affichage des pages ou le poids de celles-ci (les deux sont liées, mais la vitesse dépend aussi d’autres critères) ?
C’est la vitesse, tous critères confondus !
y’a tellement de trucs qui peuvent jouer sur la vitesse et comme on ne sait pas qu’elle est vraiment le critère que Google va appliquer, et si il le faut, on a plus de marge que ça, selon le critère et le bareme établi par google
ça ne va quand même pas être « lui, il est à 0,05′ pour s’ouvrir’ on va le priviliégié à celui qui est à 0,06′ »
sans tenir compte des autres critère plus serieux qui en font sa renommé.
ce n’est aussi que 1% des critères en plus.
A suivre.
Bonjour,
Cette question m’interpelle car depuis le début du mois d’Avril, pas mal de pages de notre site internet ont disparu des 1ère requêtes. Nous travaillons notre référencement à partir des meta title, description et keywords et cela portait ses fruits jusqu’à présent. Début Avril, nous avons travaillé l’esthétique en centrant nos pages en les habillant de jambes gauche et droite légèrement grisées. Visiblement cela à un poids (je ne le connais pas exactement), est-ce que cela n’aurait pas causé une lenteur à l’ouverture et un moindre repérage de la part de Google ? Par ailleurs, on dit que Google prend de plus en plus en compte le contenu des pages mais visiblement ce dernier n’est pas détecté par Google. Comment faire en sorte que cela soit le cas ?
Je remercie d’avance celles et ceux pouvant répondre à mes questions.
A très bientôt.
Frédéric Certain (www.languedoc-nature.com)
@certain : vous devriez poser vos questions sur http://www.forum-marketing.com
@certain : site sympa mais pas mal de choses à dire et à améliorer.
Comme le dit Maxime, RDV sur le fofo du marketing (en tant que voisin on devrait pouvoir faire quelque chose….;o)
Voilà un critère qui me pénalise, mais bon y en reste des dizaines d’autres pour se rattraper.
Merci pour l’info, j’étais passé à côté
Cette news est d’actualité depuis un petit moment déjà ! Mercui pour le relaisde l’info
Google est en train de casser un de ces critères le plus important qui en a fait sa renommée.
la vitesse au depand d’un contenu peut être plus pertinent malgré son poids.
Qui dit Informations précises et détaillées dit page plus lourdes et avec des photos ou des videos pour illustrer mieux, on fait appel à des sites externes qui eux mêmes peuvent freiner l’ouverture de sa propre page.
Mais dans le cas du site de Certain, je ne vois pas le problème en rapport avec cette Actualité puisque la page s’ouvre rapidement.
Maintenant, si pour être bien placé, grace à la vitesse, on doit tout alléger, voir changer d’hebergeur, passer en dédié et tout le tintouin, bientôt, seul les gros budgets pourront optimiser comme il le faut et là, pas cool cette Info vu comme ça.
Jean-luc
Il ne faut rien exagérer non plus, la vitesse n’est pas au dépend du contenu, mais c’est un des critères parmi tant d’autres, ensuite tout est affaire de dosage et de compromis.
Ce que je veux dire c’est que avec cette nouvelle regle de Google, cela pourrait le devenir, et comme c’est à l’encontre de sa valeur de base, la pertinence du contenu, esperons qu’il reviendra en arriere !
Mais c’est sur que pour le dosage et le contenu, on aura de toute façon pas le choix et on devra priviliégier ce qui ne pese pas et voir au lieu de remplir une page, en faire plusieurs lol.
La vitesse de chargement… va y avoir un sacré boulot à faire pour certains site ! je suis déjà en train d’optimiser le mien (adieu javascript, widget, grosse image etc…)
Tu nous diras si l’impact du à cette optimisation est mesurable, autrement que par les chiffres du labo Google Webmasters Tools….
C’était prévisible que certains allait au dépand de tout le choix passé pour embellir leur site se jeter sur l’optimisation.
Mais on ne connais je crois pas exactement en terme de vitesse, le minimum et le maximum pour l’ouverture de la dite page.
Ne pas oublier que vu sous certains angles, il suffit que le jour et l’heure du passage du spider, le server sature pour une raison ou une autre pour que vous puissiez être pénalisé, même avec presque rien.
Je pense qui doit y avoir une certaine marge que l’on nous dit pas, google veut de la pertinence avant tout pour ses résultats mais comprend qu’un webmaster a besoin d’artifices pour embellir son site et le rendre plus attractif et moins simple feuille de notes.
Tout est une question de dosage, mais aussi du type de client à qui l’on s’adresse.
Les chiffres du labo n’ont pas l’air très fiables…
Qu’en est-il depuis le mois d’avril ?
Est-ce devenu vraiment significatif ?