Google: Prime de plus en plus forte aux sites de confiance
Depuis quelque temps, les webmasters attrapent des sueurs froides le matin en regardant leurs statistiques. Sur les forums (voir par exemple WebmasterWorld), des témoignages désespérés parlent de chutes de 30, 50 voire 90% du trafic amené par Google. L'affaire a été médiatisée il y a quelques jours, quand Matt Cutts a confirmé une mise à jour du nom très approprié de Mayday, qui affecte particulièrement les requêtes de la longue traîne. Mais ce n'est qu'une cerise sur le gâteau : le chamboulement a commencé au début de l'année et ne semble pas encore terminé. Google a manifestement déclaré la guerre aux sites opportunistes, qui viennent s'intercaler entre les utilisateurs et les sites producteurs de véritable contenu. Tout le monde a remarqué que sur certaines requêtes "compétitives" (marchandes en particulier) le moteur devenait quasiment inutilisable : des pages et des pages de comparateurs bidon, de forums douteux, et autres sites parasites prêts à harponner le gogo — qui dans le meilleur des cas atterrit sur des pages bourrées d'Adsense et dans le pire sur de jolies arnaques. Chacun y va de son hypothèse dans les forums SEO sur les modifications apportées dans les algorithmes. L'exercice est un peu vain ; les secrets de Google sont les mieux gardés de la planète. Mais une chose est certaine : Google a sifflé la fin de la récréation.
Quelles que soient ces modifications, leur résultat est assez paradoxal. Alors que le Web s'agrandit chaque jour de milliers de sites et de millions de pages, les résultats en première page de Google (qui est grosso modo la seule sur laquelle les utilisateurs cliquent) font apparaître de moins en moins de sites. Je vous montre ci-dessous le résultat d'un benchmark de 1500 requêtes (en français) que j'applique régulièrement pour suivre l'évolution du moteur. En juin 2008, ces 1500 requêtes retournaient plus de 5800 domaines en première page. En 2009, environ 5100, c'est-à-dire 12% de moins. Début juin 2010, ce ne sont plus que 4837 domaines qui sont retournés, soit une chute de 17% par rapport à 2008.
Autre phénomène intéressant : la présence de Wikipedia dans les résultats. En juin 2008, Google retournait 8,2% des résultats de première page dans l'encyclopédie, et 24,5% en tout premier lien (après avoir atteint le record de 27% en 2007). L'encyclopédie avait marqué un net recul dans les résultats l'année dernière, puisque sa présence avait été ramenée à 4,5% dans l'ensemble des résultats de première page et 14,5% en premier lien. Elle refait surface à nouveau, avec 6,9% des résultats et 24,8% en premier lien.
Ces données montrent clairement que Google resserre ses résultats sur les sites dans lesquels il a confiance, généralement de gros sites établis (linternaute.com, aufeminin.com, doctissimo.fr, lemonde.fr, etc. -- et bien sûr wikipedia.org). Ce biais à la notoriété ne va pas sans dommages collatéraux. Il devient de plus en plus difficile pour de petits sites nouvellement créés et pourtant parfaitement légitimes, d'apparaître en première page des résultats, sans parler même de la fameuse première place. A une époque où des pans entiers de l'économie dépendent d'une présence sur Google, le phénomène est inquiétant.
Il reste par ailleurs à démontrer que les gros sites qui reçoivent ainsi la confiance de Google apportent tous des réponses pertinentes aux requêtes des internautes. Vous avez sans doute été consternés comme moi par la vacuité de certains forums qui s'obstinent à apparaître sur bon nombre de vos requêtes...
Quelles que soient ces modifications, leur résultat est assez paradoxal. Alors que le Web s'agrandit chaque jour de milliers de sites et de millions de pages, les résultats en première page de Google (qui est grosso modo la seule sur laquelle les utilisateurs cliquent) font apparaître de moins en moins de sites. Je vous montre ci-dessous le résultat d'un benchmark de 1500 requêtes (en français) que j'applique régulièrement pour suivre l'évolution du moteur. En juin 2008, ces 1500 requêtes retournaient plus de 5800 domaines en première page. En 2009, environ 5100, c'est-à-dire 12% de moins. Début juin 2010, ce ne sont plus que 4837 domaines qui sont retournés, soit une chute de 17% par rapport à 2008.
Nombre de domaines en première page sur un ensemble de 1500 requêtes
Autre phénomène intéressant : la présence de Wikipedia dans les résultats. En juin 2008, Google retournait 8,2% des résultats de première page dans l'encyclopédie, et 24,5% en tout premier lien (après avoir atteint le record de 27% en 2007). L'encyclopédie avait marqué un net recul dans les résultats l'année dernière, puisque sa présence avait été ramenée à 4,5% dans l'ensemble des résultats de première page et 14,5% en premier lien. Elle refait surface à nouveau, avec 6,9% des résultats et 24,8% en premier lien.
Présence de Wikipedia dans les résultats
Ces données montrent clairement que Google resserre ses résultats sur les sites dans lesquels il a confiance, généralement de gros sites établis (linternaute.com, aufeminin.com, doctissimo.fr, lemonde.fr, etc. -- et bien sûr wikipedia.org). Ce biais à la notoriété ne va pas sans dommages collatéraux. Il devient de plus en plus difficile pour de petits sites nouvellement créés et pourtant parfaitement légitimes, d'apparaître en première page des résultats, sans parler même de la fameuse première place. A une époque où des pans entiers de l'économie dépendent d'une présence sur Google, le phénomène est inquiétant.
Il reste par ailleurs à démontrer que les gros sites qui reçoivent ainsi la confiance de Google apportent tous des réponses pertinentes aux requêtes des internautes. Vous avez sans doute été consternés comme moi par la vacuité de certains forums qui s'obstinent à apparaître sur bon nombre de vos requêtes...
22 Commentaires:
Et c'est aussi de pire en pire sur Google News. Les sites de confiance se comptent sur les doigts de la main, les autres sont là juste pour boucher les trous quand il n'y a pas assez d'actu...
Oui, j'ai remarqué aussi sur Google news. Je comprends la stratégie de Google, qui essaie d'éviter la "mauvaise expérience utilisateur", mais en même temps, ils ne font pas dans la dentelle...
J'espère que des agrégateurs de contenu comme wikio retourneront là où ils auraient du rester: loin des premières pages de résultat de google.
De fait, j'adhère avec votre analyse ("Il reste par ailleurs à démontrer que les gros sites qui reçoivent ainsi la confiance de Google apportent tous des réponses pertinentes aux requêtes des internautes. Vous avez sans doute été consternés comme moi par la vacuité de certains forums qui s'obstinent à apparaître sur bon nombre de vos requêtes... ")... je suis souvent consterné par ces resultats.
Wally.
Oui, ces domaines trustés à bloc posent de gros problèmes, car tout ce qu'ils chient se transforme en or pour Google.
Il suffit d'une critique de 2 lignes bâclée d'un produit sur un de ces forums pourris tels doctissimo pour que la discussion passe immédiatement en page 1 pour le nom de ce produit... à travers Google, internet évolue comme la télévision, où l'offre proposée peu à peu se limite à des dinosaures.
Dans le même ordre d'idée, j'utilisais depuis des années Google pour trouver de la doc informatique, par exemple tel ou tel point de programmation. Depuis quelque temps, l'espace est envahi par ces fameux forums, et tout ce que je trouve c'est au mieux c'est un gugusse qui pose la même question et les autres qui lui disent en gros "t'a ka regardé dans le manuel lol"...
Evidemment, envoyer les internautes sur de gros sites "de confiance" n'a rien à voir avec la rémunération publicitaire de Google ?
:-))
Je rêve de recherches un peu "techniques" ou juste consuméristes qui n'aboutissent pas en première approche sur les forums de commentcamarche.net
Ce site est l'exemple parfait de la machinerie optimisée pour le référencement google, mais pas pour la réponse aux besoins des internautes !
Enfin faire confiance à doctissimo.fr c'est dangereux pour sa santé ;)
Il faudrait pouvoir faire un tri rapide entre catégorie d'information. Je vois au moins deux catégories : commerce ou connaissance.
@Jean
Sur le constat, je suis totalement d'accord : il y a bel et bien une baisse généralisée du trafic sur les blogs et les forums. Vérifié !!! La visibilité des blogs ne fait que de chuter dans l'index de Google.
Je me permets de formuler plusieurs hypothèses.
La première, c'est la prise en compte des liens qui figurent dans les sites de microblogging et les pages publiques des réseaux sociaux.
De ce fait, le PR se creuserait entre les sites institutionnels (de confiance si on veut) et les forums/blogs de l'autre côté sauf à augmenter les termes de la recherche (phénomène de longue traîne).
J'ajoute : attention au cross-linking très pénalisé (et donc très pénalisant) au niveau des moteurs - et de Google tout particulièrement. Or, forums et blogosphère en sont extrêmement friands.
Billet d'hier : Pourquoi la blogosphère n’en finit pas de mourir ?
Billet de ce matin : Les blogs sont-ils désindexés de la recherche Web Google ?
Les grands esprits se rencontrent !
NB A voir la prise de bec avec Jegoun !
@Jean
J'ajoute un élément : La croissance de l'index ! Plusieurs collègues ont reconnu qu'ils avaient perdu des liens qu'ils trouvaient encore l'année dernière sur certaines recherches. Je leur ai conseillé d'ajouter d'autres mots du texte recherché. encore faut-il s'en souvenir ! ;+)
Yahoo!, dont l'index avait été donné un temps plus gros que celui de Google (???), ne restitue plus les liens au delà du 1000e lien.
Monsieur Poireau> C'est très certainement un paramètre que les stratèges de Google prennent en compte ! Mais il peut jouer dans les deux sens. En fait je me suis longtemps demandé si la raison pour laquelle Google était aussi indulgent avec tous ces sites médiocres ce n'était pas parce qu'ils étaient bourrés d'adsense... Ca semblait assez évident pour le porn, que nous avons dû supporter 5 ans de plus en France qu'aux US (voir mon analyse de 2005).
Tout ça c'est des maths. Il y a un point où les courbes se croisent...
Mais au-delà du seul bénéfice immédiat, il y a aussi un point à ne pas perdre de vue: la concurrence de Microsoft, dû moins aux US. Bing commence à dépasser les 10% de part de gâteau, et ça pousse certainement Google à se bouger plus vite qu'il ne ferait, même si la rentabilité à court terme en pâtit.
@moulinvert ah mon dieu, que je hais commentcamarche.net...
Pour filtrer ces domaines des SERP's, je conseille d'utiliser l'extension firefox http://www.customizegoogle.com/ , en tant qu'utilisateur c'est très utile... ne pas oublier de la désactiver quand on vérifie ses positions :-D
J'espère aussi que les comparateurs de prix vont aussi en prendre pour leur grade. Pour voler les requêtes et placer de l'adsens attrape gogo ya pas mieux non plus.
J'ai pour ma part un petit site récent, plutôt faiblard en nombre de publications, où je m'applique par contre à rédiger des articles de qualité. Et bien je remarque en effet que depuis plusieurs semaines le nombre de visiteurs arrivant depuis Google est en significative progression.
D'ailleurs mes articles tendent aussi à monter vers les premiers résultats sur certaines requêtes clé. Voici qui pourrait nuancer votre idée selon laquelle Google aurait plutôt confiance en de « gros sites établis ». Pourquoi ne serait-ce pas simplement une reconnaissance de qualité de contenu ?
Quoi qu'il en soit, croyez-moi, c'est plutôt plaisant de voir son travail reconnu... :)
Avec quelques copains de la Clique à Nicolas ;), nous avons participé à une chaîne de blogs sur Hatman (la fameuse résurgence inattendue de Michaël Jackson à ses propres funérailles). Nous avons donc joué à plusieurs. Surprise: pour la requête mon blog reste 1er alors que Paperblog a repris le texte...
PR certes mais aussi peut-être TR non?
Pour ce qui concerne la baisse d'audience, je me disais bien que ce n'était pas parce que je n'avais pas beaucoup publié le mois dernier: c'était donc bien la faute de Google :)
Férocias> Je crois que la récré est finie aussi pour Paperblog : voir sa chute libre sur les derniers mois...
@LDS
"Il faudrait pouvoir faire un tri rapide entre catégorie d'information. Je vois au moins deux catégories : commerce ou connaissance."
Comme ca : http://www.askdavetaylor.com/0-blog-pics/mindset-africa-gold-shopping.jpg
? :)
Ces sliders existaient à l'époque (2005) sur Yahoo et meme sur MSN Search : http://www.seroundtable.com/archives/msn-sliders.jpg
Sauf que sur MSN c'était d'autres paramètres ajustables.
Dans les deux cas, ce sont des options qui ont fini par etre abandonnées.
Trop "power users".
Ce qui compte, c'est satisfaire la masse.
D'ailleurs, les changements d'algos de google sur la longue traine refletent également cette philosophie du search.
Est ce que vous avez testé recemment des requêtes à 4 et plus mots clés ?
Google ne fait plus de 'ET' entre les termes, et se permet de faire un stemming sur tout et n'importe quoi. Résultat, si vous etes un peu "poweruser", il faut mettre des '+' devant chaque terme pour lui dire "Si si ! je suis vraiment sur moi. Je t'assure, me prend pas pour un crétin"
C'est désolant :(
C'est peut-être la faute à nos compatriotes qui utilise le Gogole à 90% non?
Si les webmasters expliquaient un peu plus qu'un monopole c'est dangereux, en particulier cet espion géant, peut-être que la concurrence se développerait comme dans d'autres pays.
Matt cuts a dit également qu'on attribuait trop d'importance aux backlinks (lien externes qui pointent vers un site), mais il semble qu'il y a un double discours : google est également une énorme régie publicitaire (rachat de doubleclick, youtube...) et ne gagne pas d'argent sur les résultats naturels mais énormément sur les adwords !
Je comprends grâce à vous pourquoi soudainement je n'ai plus un seul visiteur venant de Google, alors que j'en avais des centaines auparavant ! Peut être Google me soupçonne-t-il de vendre des produits financiers pourris ? ;-)
http://benoit.granger.micfin.eu/
Google n'en fini plus ces derniers temps de modifier son algorithme et tout ceci ne semble plus bien logique.
J'ai constaté de mon coté des sites "trustés" avec du contenu de qualité et régulier qui ont perdu des positions, au profit de sites plus anciens mais d'une qualité affligeante qui sont ressortis de la sandbox dans laquelle ils étaient depuis près d'une année auparavant. Une prime à l'ancienneté uniquement donc, qui a toujours existé mais n'était pas aussi poussée auparavant.
Pour la perte de position de certains blogs, il s'agit peut être d'une évolution logique compte tenu de leur profilération exponentielle et de leur contenu parfois aléatoire contenant de temps en temps (souvent ?) des informations non vérifiées.
En plaçant des gros sites "serieux" en avant, google espère peut-être pallier simplement à ses faiblesses qui l'empêchent d'éviter la "pollution" actuelle de certaines requêtes dans ses pages de résultats.
Quoi qu'il en soit, lancer un nouveau projet web va devenir compliqué et demander une bonne dose d'engagement, compte tenu du temps qu'il faudra pour venir se placer correctement dans les SERPS.
Enregistrer un commentaire