Avec la montée de l’Internet comme fabuleux réservoir de savoir, on apprend à devenir autonome comme « demandeur de connaissance ». Mais émerge alors la question: comment avoir confiance en une information sur le web en dehors des institutions «légitimantes»?
Une institution «légitimante» est une institution qui donne à des individus un pouvoir instantané de crédibilité. Un nouveau journaliste dans un journal n’a pas à «faire ses preuves »: on considère qu’il a été justement recruté parce qu’il avait les qualités nécessaires pour exercer sa profession.
Ce n’est pas le cas d’un nouveau blogueur. Et ce n’est pas le cas nécessairement d’une information que l’on retrouve sur le réseau. On doit probablement faire l’exercice de déterminer la crédibilité a posteriori, par nous même, seul.
Quel est ce processus? Qu’est-ce qui est à l’oeuvre quand on décide de s’informer par nous-mêmes sur internet? Comment arrivons-nous à donner crédit à ce qui est dit sur le réseau en l’absence de système de validation classique (bibliothèque, journaliste, professeurs, etc.)
Voici la présentation que j’ai donnée au PodCamp Montréal ( #pcmtl) samedi dernier (voir un extrait vidéo)
Je me suis basé sur trois documents pour construire ma présentation. Oui, trois documents qui ont été validés par une institution légitimante qu’est l’Université. Mais, pour la petite histoire, c’est via le réseau, sans référence d’institutions académiques que je les ai trouvé, par sérendipité pourrait-on dire (qui est en soi l’autre facette, que nous ne discuterons pas ici, du processus d’auto-apprentissage généré par l’accès libre au contenu déposé sur Internet).
The Element of Computer Credibility, par B.J. Fogg et H. Tseng (PDF)
L’aspect de la crédibilité véhiculé par les produits informatiques est au coeur de la préoccupation du docteur Fogg, chef du Persuasive Technology Lab. Il cherche à comprendre et à expliquer de quelle façon l’usage de l’ordinateur change notre comportement (temporairement ou de façon permanente). Autrement dit, comment la manipulation mécanique d’information virtuelle en dehors de tout apport social direct (sans intermédiaire humain) aboutit à un changement de comportement ( comment il «persuade» l’usager).
Ce rapport de recherche, écrit en 1999, fait le point sur le phénomène en définissant les termes principaux et en synthétisant les recherches dans le domaine. Il ouvre ensuite la possibilité d’explorer ce que l’usager fait pour croire en ce qu’il manipule à l’écran. C’est don un bon point de départ.
Construction de l’autorité informationnelle sur le web, par E. Broudroux (PDF)
Le repérage et l’indexation des documents ont radicalement changé depuis l’adoption massive d’internet par le grand public. Des outils «sociotechniques» sont venus classer d’une manière nouvelle l’information en donnant plus de visibilité à ceux qui sont le plus référencés. Cette contribution plus récente d’Évelyne Broudoux sur les “systèmes bâtisseurs de réputation et de notoriété” et les “outils sociotechniques d’autorité cognitive” font émerger ce qui sera discuté dans la troisième source les autorités cognitives. Ce concept débouche sur celui d’influence et est le résultat d’un jeu de forces. La nuance ici qu’elle apporte consiste à signaler qu’une l’autorité informationnelle est plutôt «susceptible d’être portée par un individu ou un groupe, un objet ou un outil cognitif ou encore un média, n’a pas pour fonction principale l’influence, mais celle d’in-former (donner une forme)».
On ne parle pas ici donc d’une autorité traditionnelle (soumission volontaire, sans violence, à une hiérarchie), ou celle fondée sur le droit (autorité institutionnelle légale) ou même une autorité charismatique (fondé sur la seule personne, d’abord par attrait, puis souvent ensuite par coercition). La construction de l’autorité informationnelle sur le web se bâtit à partir d’un mélange d’autorité énonciatrice, institutionnelle, de contenu et de support, bouleversés par l’auto-publication et la baisse relative du filtrage institutionnel qui permet l’arrivée de nouveaux acteurs, et remet en question l’attribution de confiance classique.
Second-hand knowledge: an Inquiry into cognitive authority, par Patrick Wilson (Amazon)
Publié en 1983 par le regretté professeur de Berkeley, ce livre couvre un vaste domaine épistémologique. Si nous devions ne dépendre que de nos propres connaissances personnelles, nous serions sérieusement limités pour comprendre le monde qui nous entoure. En fait, nous dépendons des autres pour la majorité de nos idées et connaissances. Avec les informations que les autres nous rapportent, nous construisons une vision du monde qui nous permet d’agir. Cette connaissance qui nous permet aujourd’hui d’agir est de «seconde main», c’est à dire pas acquise de «première main». Nous devons faire confiance à une «autorité cognitive» car celle-ci ne possède un savoir accumulé (réponses aux questions closes) ou une opinion éclairée (réponses aux questions en suspens) pour nous guider quand nous n’avons pas toute la connaissance ni l’expertise pour juger.
C’est une influence légitime (on ne parle pas d’influence par la publicité par exemple). Partout où l’information et les connaissances circulent librement, le problème du filtrage personnel commence. L’usager, en dehors de sa sphère de compétence, doit sélectionner comme pertinente une connaissance via une source qu’il trouvera crédible dans son domaine. Ce qui pose la question de la fiabilité de l’information disponible sur les réseaux et de la compétence des usagers pour la traiter. Le choix se fait par crédulité ou dogmatisme. Mais il se fait aussi par plausibilité du texte. Quand celui-ci entre en résonance avec le monde que l’on s’est construit, il acquiert davantage de crédibilité. Si tout se résume à de la pure subjectivité, et l’auteur ne cache pas qu’il n’y a pas d’assise objective pour nommer de façon absolue une autorité cognitive, il reste néanmoins que le processus de «crédibilisation» est un fait réel et observable. C’est que ce que j’ai tenté d’observer dans ma présentation.
Je peux développer dans un autre billet si le thème vous intéresse.
Intéressant. Les moteurs de recherches fonctionnent aussi avec des concepts d’Autorité (Authority) et Confiance (Trust).
Les liens vers un site web peuvent être pondérées en fonction de comment les documents (ou les sites web) contenant ces liens peuvent être dignes de confiance (par exemple, on peut accorder une grande confiance à des liens en provenance de documents gouvernementaux).
Mais les liens peuvent également, ou alternativement, être pondérés sur la base de l’autorité des documents contenant les liens. Par exemple, les documents faisant autorité peuvent être déterminés d’une manière similaire à celle décrite dans le brevet original du PageRank de Larry Page.
De toute évidence, Google dispose de deux indicateurs différents pour pondérer liens et sites web.
L’autorité, dans la terminologie de Google, vient des backlinks. Lorsque beaucoup de liens d’autres sites Web pointent vers votre site, vous devenez de plus en plus une autorité.
Mais cela ne veut pas dire que vous ayez acquis de la confiance (Trust). Alors quelle est exactement la confiance aux yeux de Google? Voici un extrait intéressant d’un brevet de Google :
…search engine 125 may monitor one or a combination of the following factors: (1) the extent to and rate at which advertisements are presented or updated by a given document over time; (2) the quality of the advertisers (e.g., a document whose advertisements refer/link to documents known to search engine 125 over time to have relatively high traffic and trust, such as amazon.com, may be given relatively more weight than those documents whose advertisements refer to low traffic/untrustworthy documents, such as a #*$!ographic site);.
Google commence donc probablement par une liste de sites choisis manuellement, une « seed list» de domaines approuvés (amazone.com, whitehouse.org, etc.) Puis le calcul de la confiance peut être fait à partir des liens qui émanent de ces domaines.
Si un site Web obtient un lien direct d’un document ou d’un domaine de base approuvé (la « seed list »), il acquiert beaucoup de confiance grâce à ce lien.
Si un document est à deux clics d’un document ou d’un domaine de base approuvé, il obtient un peu moins de confiance par le biais des flux de liens — et ainsi de suite. C’est l’essence même du « TrustRank » — un concept décrit dans un document de l’université de Stanford et de trois chercheurs Yahoo.
Un site peut donc avoir énormément de backlinks et avoir beaucoup d’autorité (l’équivalent du branding) mais ne pas nécessairement avoir obtenu la confiance du moteur (équivalent de la réputation).
Orenoque, je trouve la notion de la «seed list» très intéressante. Ça simplifie le travail de démarrage d’un TrustRank, évidemment. Ça n’enlève pas que ça reste subjectif.
Amazon.com est-il _vraiment_ une source absolue de confiance? Dans un certaine culture, à un certain moment, oui, pas pas de façon absolue. On peut imaginer un sous-groupe religieux vouloir mettre un distributeur au sommet de l’hiérarchie pour « seeder » le reste.
Mais sur le fond (une «seedlist» montée à la main) ça me semble une façon pragmatique de bâtir un trustrank pour un moteur en particulier.
Reste alors la confiance que l’on porte en Google de «bien choisir» cette première liste.
Cela dit, ce que tu apportes est une distinction à explorer: «confiance, autorité, crédibilité» ne se recoupe pas entièrement et ton point le montre bien.