Publié par Pierrot le Chroniqueur

Autrement dit : Wikipédia lasse-t-elle ?1 Le professeur Jean Véronis a publié sur son blog les résultats d'une enquête menée dans son Université de Provence, ainsi titrée : "Google : De plus en plus de Wikipedia, mais les internautes semblent se lasser". Billet immédiatement, et comme il se doit - quoique moins abondamment qu'on aurait pu l'espérer - commenté sur le Bistro. Globalement, l'étude, comme cela a été relevé, souffre de quelques imperfections. Principalement à cause de la nature de l'échantillon : exclusivement des étudiants réquisitionnés pour l'occasion. Ce qui donne un biais certain à l'enquête, l'échantillon n'étant nullement représentatif, comme souligné par Moyg. Reste que certains points sont intéressants à relever.

 

 

Wikipédia squatte Google

 

Tout d'abord, les données techniques récoltées concernant le taux de premier résultat d'une recherche Google, qui ne souffrent pas de la nature homogène de l'échantillon. Mais qui sont en revanche dépendants de la nature des recherches effectuées. 13 thèmes traités, nous dit-on, à raison de 26 requêtes pour chacun des 226 étudiants cobayes. Soit 5 876 recherches. Ce qui n'est pas tant que cela, et rend, là aussi, l'enquête imprécise. Surtout que l'on ignore la méthodologie utilisée et les recherches effectuées lors des précédentes enquêtes auxquelles les résultats actuels sont comparés. Ce qui rend le tout difficilement analysable. Supposons tout de même qu'il y a ici un minimum de rigueur2, et que les processus sont donc similaires. Il n'en demeure pas moins que les résultats sont en conséquence aléatoires, et donc à prendre avec certaines précautions. Au minimum. Ceci étant précisé, examinons-les. En novembre 2010, 31,2% des 5 876 recherches effectuées sur Google aboutissaient à un lien Wikipédia en première page. À quelques cacahuètes près le double du pourcentage obtenu lors de la précédente enquête de mai 20093. Deux explications sont données à cette forte progression :

 

  • Premièrement, l'augmentation continue du nombre de pages sur l'encyclopédie collaborative en ligne. Logiquement, plus il y a de sujets traités, plus il y a de chance de voir une recherche aboutir à un lien vers une page Wikipédia. Constat nécessaire mais non suffisant, cependant : il n'explique pas intégralement pourquoi ces pages Wikipédia se retrouvent de plus en plus en première position du hit.
  • La raison est plutôt à voir, selon Jean Véronis, du côté des mécanismes complexes des algorithmes de recherche, le tout saupoudré de quelques réglages éditoriaux appropriés. Très bien saupoudré à mon avis, aussi je me demande si ces réglages ne sont pas en réalité prioritaires4. Bref, concrètement, Wikipédia est délibérément favorisée par Google. Deux raisons possibles à cela. La rationnelle et la technique : à savoir que Google peut se servir de Wikipédia comme "variable d'ajustement", nous explique l'auteur. C'est-à-dire, tout simplement, que la notoriété dont jouit Wikipédia, et surtout l'a priori supposément favorable qu'en ont les internautes pour se documenter, conduit Google à privilégier les liens vers elle. "Dieu est du côté des gros bataillons", ont dit Voltaire comme Napoléon. Celui qui régente Internet ne fait pas exception à la règle.

 

 

La confiance en Wikipédia vacille

 

Le problème est que ce crédit accordé à Wikipédia serait en passe d'être entamé. C'est le second résultat, le plus critiquable pour les raisons que j'ai indiquées plus haut, de cette enquête : la  pertinence et la qualité du premier lien reçu qui soit une page Wikipédia sont évaluées ainsi par les internautes-cobayes : 3,47 d'indice de satisfaction (sur une échelle de 5). Alors que l'indice était encore de 4,48 il y a trois ans. Globalement, la baisse est continue depuis, comme le montre ce diagramme. Pire : pour la première fois, cet indice est inférieur à celui obtenu lorsque le premier résultat n'est pas une page de Wikipédia (3,52). Deux questions se posent alors : quelles raisons à cette baisse, en admettant qu'elle traduise statistiquement une réalité (Véronis donne plusieurs facteurs. Je vais y apporter ma pierre) ? Et est-ce le résultat en lui-même qui indispose les internautes - à savoir le contenu de la page qui ne leur apporterait pas satisfaction - ou le fait que leur recherche n'appelait pas une réponse généraliste, voire encyclopédique, et que la survenue de Wikipédia ne leur semblait dans ce cas pas pertinente, sans tenir compte du contenu lui-même ?

 

Jean Véronis tente d'analyser ces données (et le Bistro aussi !). Sont ainsi échafaudées plusieurs hypothèses, comme autant de raisons possibles à la baisse de la satisfaction constatée.

 

  • Pour Véronis, une explication possible est l'accroissement sensible de l'exigence et de l'expertise informatique des internautes moyens. Pour une raison simple : arrivent maintenant dans la vie active, ou en études supérieures, en tout cas dans la majorité, des personnes qui ont connu l'informatique, voire Internent, toute leur jeune vie et baignent naturellement dedans.  Une explication "sociologique" séduisante mais, à mon sens, inquantifiable. Et certainement pas exclusive d'autres facteurs.
  • Deuxième raison évoquée par Véronis, et imbriquée avec la première : l'objectif de la recherche ne peut se satisfaire d'une page Wikipédia. En ce sens, l'importante diminution de l'indice de satisfaction s'expliquerait par le fait que la pertinence de la réponse wikipédienne n'est pas en adéquation avec la recherche effectuée. La satisfaction ne serait donc pas tant que cela influée par la qualité de la réponse, donc de l'article Wikipédia (quoique... Mais j'y reviens plus loin). Exemple : l'internaute tape "Johnny Hallyday" dans le moteur Google pour obtenir la date de sortie de son prochain album - et non pour avoir des détails biographiques. L'article Wikipédia en premier lien - enfin, mauvais exemple : pour Johnny, c'est le site officiel qui apparaît en premier. Mais faisons comme si - ne correspond donc pas exactement à ce qu'il recherchait (même s'il est possible que l'information y figure). J'émet cependant une objection : ce genre de recherches n'est évidemment pas nouvelle. Pourquoi soudainement justifieraient-elles une diminution de l'indice de confiance ? Selon l'auteur, cela est à combiner avec sa première hypothèse : l'exigence accrue des internautes leur font souhaiter un résultat plus direct. Possible - je ne suis pas vraiment convaincu - mais je ne vois pas pourquoi Wikipédia en pâtirait : si l'on tape "Johnny Hallyday", il ne faut pas s'étonner d'avoir en premier lieu des informations sur Johnny Hallyday et non sur son dernier album. Ceci dit, ce serait, je crois, une erreur d'en conclure qu'il faut modifier les articles de Wikipédia de manière à répondre plus efficacement à ces attentes supposées des internautes. Wikipédia est faite, en bonne partie, pour le lecteur, mais elle reste avant tout une encyclopédie. Qu'il ne faut pas galvauder en la truffant de précisions sans intérêt. Si c'est cela que le lecteur cherche, sur Wikipédia il s'est trompé d'endroit. Point.
  • Troisième facteur possible, suggéré par Dodoïste : prendre le titre du billet au pied de la lettre.  À savoir que les internautes se lasseraient tout simplement de Wikipédia, abondamment présente depuis de nombreuses années déjà.  Et de préciser, sans sourcer (c'est mal !) qu'il a concrètement déjà entendu s'exprimer cette lassitude. Cette explication semble la plus simple, la plus évidente et, sans doute, la plus proche de la réalité. Il est dans la nature humaine de se lasser. Toute action répétitive ou habitude, même plaisante au départ, finit - bon, il y a parfois des exceptions - par ennuyer. Exemple : une série télévisée. Vous l'appréciez au début, vous regardez une, deux, trois saisons. Ensuite, vous en avez moins envie. Les intrigues se ressemblent, les nouveaux personnages ne sont pas à la hauteur des anciens, l'univers vous est trop familier. Cela fait longtemps maintenant que Wikipédia est familier aux internautes. Elle est entrée dans les moeurs. Elle fait même partie de l'Histoire d'Internet. Commence-t-elle donc naturellement à lasser ? Possible. Quelles réactions envisager dans ce cas ? Franchement, aucune idée pour l'instant.

 

 

Et la qualité dans tout ça ?

 

Reste enfin une dernière thèse que Jean Véronis avait envisagée avant de sembler l'écarter. Bien trop facilement à mon goût. Je cite : "On peut se demander d'ailleurs si l'accroissement constant du nombre de pages de Wikipedia ne contient pas en lui-même une diminuation quasiment programmée de la qualité". Oui, on peut vraiment se le demander. C'est d'une logique confondante : plus le temps passe, plus les créations portent sur des sujets pointus, obscurs, techniques, nécessitant des compétences particulières. Conclusion, la plupart des nouvelles pages sont des ébauches. Ce n'est pas une critique, c'est un constat5. Et, pure logique aussi, ces nouvelles ébauches se retrouvent rapidement indexées, en bonne position donc, par Google. Et ce n'est pas vraiment, voire pas du tout, une bonne vitrine pour Wikipédia, déjà si globalement décriée. Conséquemment, plus ces pages sont présentes, plus la qualité moyenne baisse. C'est, qu'on le veuille ou non, consubstantiel à la relation quantité/qualité. Que cela influe ou non sur la satisfaction de l'internaute n'empêche pas ce phénomène d'exister et de prendre de l'ampleur.

 

 

1. J'aurais pu mettre ce titre-là, plus sobre. Mais des unes racoleuses de temps en temps, c'est bon pour ma visibilité.

2. Les qualifications de l'auteur du billet sont tout de même un bon point en ce sens.

3. Résultats de 2009 étonnament en baisse par rapport à ceux des années précédentes, ainsi que Moyg l'a justement relevé. On aurait pu croire que, le nombre de pages Wikipédia augmentant constamment, ce pourcentage croîrait mécaniquement en conséquence. Du reste, c'est l'une des explications données au "score" obtenu le mois dernier, comme indiqué par la suite. Ce qui rend d'autant plus étonnant ce "creux" de mai 2009.

4. Faites une expérience toute simple : créez un article puis, un peu plus tard, faites la recherche idoine sur Google. Votre article sera déjà référencé (c'est fait rapidement) et dans les premières positions, sinon la première. Ce qui, en si peu de temps, ne peut pas s'expliquer par le pagerank sur lequel sont censés se baser les algorithmes de recherche. Enfin, il me semble.

5. Bon d'accord, c'est une critique quand même. J'y reviendrai sans doute dans un prochain billet.

Commenter cet article

Léna 14/09/2011 13:51



"faire le point" et "actualité" ne sont pas du tout incompatibles : quand je suis revenue d'Amsterdam (donc quatre jours coupées des médias), j'étais bien contente de trouver Wikipédia qui
faisait le point sur l'affaire DSK, de manière beaucoup plus pondérée/factuelle/complète que les médias français qui étaient vraiment dans l'instant "temps réel".


Une chose qu'il faudra qu'on m'explique, c'est comment on fait pour créer des articles qui ne soient pas des ébauches : faut faire un brouillon et au bout de 10 mois de relecture, le publier ?



Pierrot le Chroniqueur 14/09/2011 14:48



En deux parties donc.


La première, c'est que hors wikipédia, il est assez facile de faire une mini-revue de presse via des agrégateurs (si on veut) de type yahoo ou google actualités. Je ne vois pas ce que Wikipédia
vient faire dedans, d'autant plus que le problème des sources et, bien sûr (argument pourtant matraqué, mais pertinent à mon sens), le problème du recul (et donc de la NPOV) se pose, et
sacrément. Si on veut rester dans les projets Wikimedia, il existe un projet dédié pour ça, Wikinews.


Personne ne te l'a encore expliqué  ? Passons sur la légende qui veut qu'un article de Wikipédia ne soit
jamais achevé : il en est certains qui ne sont améliorables qu'aux marges. Pour le reste de la réponse, direction ici. Il y a une marge entre une ébauche (et encore, je dirais plus un brouillon
minimal) et une vraie amorce d'article. Je pense que je devrais y revenir. Tiens, pour finir, une question trollogène : en quoi attendre 10 mois pour la relecture et j'en passe est-il contraire
aux objectifs de Wikipédia ?



Fuucx 12/12/2010 23:48



Concrnant la qualité le problème me semble complexe.  Concernant le sujet que je suis le plus je crois que le problème n'est pas tant les nouveaux articles que le temps mis pour porter des
articles à un niveau supérieur à l'ébauche.


Plus généralement si Wikipedia à une unité qui fait sa force


Forme standard des articles qui fait qu'on s'y retrouve vite (c'est pour moi un aspect que j'apprécie comme lecteur)

Une volonté de traiter de façon encyclopédique, c'est-à-dire sourcé en tentant de faire un point sur la question)



Il n'en demeure pas moins que nous avons des gammes d'articles trés différentes pour lesquelles, les attentes du public et les "facilités de rédaction" ne sont pas les mêmes. Je
distinguerais


Les articles sur des artistes, personalités de tout genre ("hors grands auteurs encyclopédie traditionnelle").

Les articles sur les entreprises et les communes. (Je n'ai jamais compris que quand google s'est lancé dans une encyclopédie, ils ne se soient pas orientés sur ce segment) mais peut-être
cherchaient-ils plus la notoriété que la rentabilité directe. Où alors je me trompe en pensant que ce segment pourrait être rentable 

Les articles d'actualité

Les articles "encyclopdies traditionnelles" A mon avis ce ne sont pas les plus lus. J'ai tendance à penser que le segment le plus fréquenté est le premier.



 



Pierrot le Chroniqueur 13/12/2010 12:09



Je vais être très clair : je ne pense pas, justement, que Wikipédia présente une unité, comme tu le penses.


Si la forme standard est une forme standard, elle découle plus à mon sens des limitations techniques imposées au rédacteur qu'à une réelle volonté de présenter un mode de rédaction unifié. Et ne
parlons pas à ce moment de la méthode. En fait si : tu parles d'une volonté de traiter de façon encyclopédique, en réduisant cet aspect à la volonté de sourcer et de faire le point sur
la question. C'est tout simplement erroné : les articles manquant de sources sérieuses sont légions (et je parle bien d'articles), ce qui remet en cause la volonté affichée par un grand nombre,
et pratiquée par un petit. Quant à faire le point, tu te contredis toi-même en introduisant plus bas la notion d'articles d'actualité.


Continuons. La notion même de variété que tu invoques n'est pas contradictoire avec la notion d'encyclopédie (je ne sais pas ce que tu indiques par encyclopédie traditionnelle, peut être une
réduction aux "grandes" comme Larousse ou Universalis ?) : c'est  à mon sens démontré par des encyclopédies tout à fait bien construites et passionantes sur des sujets aussi différent que le
chocolat, le sport ou la peinture médiévale européenne.  Mais la variété n'est pas synonyme de prolifération incontrôlée, ce qui est très facilement oublié : c'est d'ailleurs le problème n°1
en ce qui concerne les "artistes" et les entreprises (à mon sens).


Les articles d'actualité (et là je rejoins certains points de vue "durs") ne sont pas destinés à être publiés dans Wikipédia. Tout simplement parce qu'il est schizophrénique de vouloir faire un
article exhaustif sur un sujet en évolution rapide. Il y a, à mon sens, confusion profonde entre faire un article d'actualité (on irait vers Wikinews, j'ai l'impression) et faire un article en
relation avec l'actualité. Le meilleur exemple actuellement est Wikileaks : l'article est une simple compilation de coupures de presse à mon sens (aucun recul, pas d'analyse média ...) avec un
"fork" qui est pour moi un exemple de ce qui ne faut pas faire ici : les "révélations" (qui n'ont pour la plupart
rien de révélations) n'ont pas d'impact réellement évalué (les mesures de retorsion anti-Wikileaks sont "logiques" et prévisibles). Et pour cause ...


Les articles de veine traditionelle ne sont pas les plus lus ... J'ai tendance à le penser aussi. Pourquoi ? Parce que, comme je l'ai déjà évoqué à plusieurs reprises, ils sont souvent bien en
deça du niveau que l'on pourrait attendre (malgré les efforts fournis par certains) et qu'ils sont noyés dans la masse des articles de second plan (faire une navigation au hasard le montre assez
facilement). Et aussi, tout simplement, parce que quand on cherche des informations people sur Justin Bieber et qu'on va sur Wikipédia (réduite à ce rôle de vitrine people), on
n'ira  pas sur l'article [[Pop (musique)]]. Notons au passage que les biographies sont souvent confondues avec des panégyriques ou des attaques en règle. Malheureusement pour le principe de
neutralité.


Moralité : au boulot !



Arkanosis 11/12/2010 21:40



Se baser sur les évaluations, pourquoi pas ; mais cela impliquerait un travail spécifique à Wikipédia (et même à chaque version linguistique), ce qui me semble peu probable à moins d'avoir un
ingénieur chez Google qui soit suffisamment fan de Wikipédia pour y consacrer du temps et suffisamment « gradé » pour faire passer son boulot en production (donc en gros, ça me semble utopique —
mais j'aimerais me tromper).


De façon moins spécifique à Wikipédia, j'imagine qu'il serait possible de pondérer beaucoup plus la réputation du site avec des critères tels que l'ancienneté de l'article (exit les canulars
supprimés 5 mn après la création mais déjà indexés dès la première minute), sa longueur, le nombre de titres qu'il contient, les liens qui pointaient déjà vers lui avant sa création (pas
forcément facile)… Après tout, on parle ici de Wikipédia, mais le problème n'est pas exclusif à ce site ; je vois régulièrement remonter des pages Facebook avant des réponses pertinentes (et là
ça me semble abusif à plus d'un titre).



Pierrot le Chroniqueur 12/12/2010 16:31



L'idée de pondération fondée sur des critères d'ancienneté est très séduisante. Mais imparfaite : ne faisons pas la fine bouche, certains articles nouvellement créés sont corrects (si, si !).
L'idéal resterait donc une évaluation qualitative, mais je sais que c'est effectivement utopique. Pour Facebook, c'est déprimant, en effet (d'un autre côté, je suis aussi sur Facebook, donc je ne
vais pas trop en dire du mal ). C'est assez étonnant, même, compte-tenu du contexte de guerre désormais quasi-ouverte
entre Google et Facebook. Comme quoi ce sont peut-être bien des critères techniques qui prévalent, finalement. Au détriment, peut-être de la pertinence. Cela reste malgré tout difficile de
formuler des reproches, la mise en place de tels critères est sans aucun doute délicate à gérer.



Arkanosis 11/12/2010 19:59



Pour le (4) également : si, justement parce que le pagerank (enfin… son successeur tenu secret) fait intervernir la réputation du site. Et celle-ci est (de façon AMHA totalement justifiée) très
bonne pour Wikipédia et s'applique (de façon AMHA totalement abusive) indistinctement à tous les articles.



Pierrot le Chroniqueur 11/12/2010 20:49



D'accord avec toi. Mais cela me semble difficile que les pages Wikipédia soient traitées différemment par Google. Les critères à mettre en place, notoriété, qualité de la page, seraient trop
compliqués. En se basant sur les évaluations peut-être ?



darkoneko 11/12/2010 18:38



pour ton (4), ça s'explique au contraire totalement par le pagerank, car l'une des variable est la "nouveauté" de la page



Pierrot le Chroniqueur 11/12/2010 20:44



Très bien, je le note. Je ne suis pas dans les secrets du Dieu Google.