ChatGPT et les mots d’ordre
Dans cet épisode nous allons parler des robots conversationnels et nous interroger sur une de leurs conséquences possibles.
Ca y est maintenant que tout le monde a découvert ChatGPT sans trop savoir comment ça marche, chacun y va de son couplet. Et non les amis ce podcast n’a pas été écrit par ChatGPT…
Comme toujours il y a ceux qui y voient une opportunité facile, genre l’IA qui va rédiger mon mémoire de fin d’étude, et qui confondent un peu surface et profondeur… En gros ceux qui croient que la poésie n’est qu’une succession de mots…
Et puis ceux qui crient immédiatement aux loups en expliquant que ChatGPT va détruire un nombre incalculable d’emplois… Bref, on observe toujours les mêmes engouements un peu hâtifs, surfant sur les peurs et les fantasmes.
Alors qu’en réalité, peut-être que l’une des conséquences potentielles est d’un autre ordre… Alors, ChatGPT et les mots d’ordre, c’est quoi l’histoire ?
On ne va pas débattre ici de la puissance ou des limites des robots conversationnels, ce n’est pas le sujet. Rappelons simplement que techniquement cela repose sur les LLM, les Large Language Models.
En substance, cela prédit des séquences de mots à partir de celle que tu lui donnes, le prompt, et en fonction de ce que tu lui as appris, c’est-à-dire de ce avec quoi le modèle a été nourri.
Il y a donc deux traits caractéristiques à comprendre.
Le premier c’est que le modèle d’apprentissage, quelle que soit sa puissance, reste par nature tributaire des données auxquelles il est exposé. Et le second, c’est que le modèle ne sait en aucun cas estimer la pertinence de ces mêmes données. Il ne sait pas « faire la part des choses ».
En soi cela ne pose pas de difficultés particulières, ce sont des caractéristiques qu’il suffit de connaître pour éviter de totémiser l’outil et lui prêter des vertus qu’elle n’a pas. Un robot conversationnel ne te donne pas la vérité par exemple sur la question que tu lui poses.
Il te fournit une réponse avec une très bonne syntaxe qui est l’agencement le plus probable en fonction de ses paramètres et au regard de la matière qui lui a été fournie, sans qu’il puisse distinguer si cette matière elle-même est pertinente ou pas.
En vérité ce sont les usages qui en seront faits, si l’on ne tient pas compte de ces limites, qui nous intéressent. Revenons un peu en arrière sur l’histoire du web.
Au début, ton point d’accès c’étaient des outils comme Yahoo. En gros une grosse bibliothèque avec des catégories et des sous-catégories pour accéder à des sites Internet. Cela demandait deux efforts à l’utilisateur.
- Réfléchir à la catégorie pertinente dans laquelle ce qu’il cherche peut se trouver
- Une fois dans la bonne catégorie, faire un effort de sélection, donc de discernement, pour choisir quelle information prendre c’est-à-dire quel site visiter dans la liste qui lui était proposée.
Google avec sa recherche plein texte a bouleversé tout ça en mâchant le travail de l’utilisateur sur le premier point. Plus besoin de faire l’effort de savoir où cela peut être, on te propose directement une liste de sites.
Mais il te reste quand même le second effort, celui de discerner dans cette liste ce que tu vas sélectionner et consulter. Mais avec le temps, et notre paresse coupable, que s’est-il passé concrètement, dans les usages ?
Combien font aujourd’hui l’effort de scroller au-delà des premières réponses ? Qui est vigilant et veille à distinguer les liens sponsorisés, des « extraits optimisés » ou des sites en tant que tels ?
Qui a fait l’effort dans la pratique d’utiliser des moteurs de recherche alternatifs plus respectueux des données personnelles malgré sa conscience des défauts de ceux qu’il utilise ?
Bref, notre paresse a réduit notre capacité de discernement et nous prenons ce qu’on nous donne, un peu facilement.
Regarde comment l’algorithme de LinkedIn impose maintenant sa loi, où chacun cherche à « l’utiliser » pour optimiser sa visibilité et à la fin c’est le bruit, la gesticulation, les commentaires et les polémiques qui l’emportent sur la pertinence et la qualité de l’information.
Imaginons donc que la facilité apparente que nous offre les robots conversationnels viennent à ce que nous en fassions collectivement un remplaçant des moteurs de recherche.
On évite le 1er effort et même le 2nd puisqu’il n’y a même plus à essayer de discerner en sélectionnant dans une liste. On a une réponse immédiatement comestible sans connaître les sources.
Avec Patrick Bouvard il y a 20 ans dans un livre sur le Knowledge Management nous écrivions que « l’enjeu moderne est la modélisation d’une recherche rapide, opérationnelle, intégrant des principes d’exploitation paramétrables des informations. Celui qui possèderait un tel outil serait plus maître du jeu que les autres »[1]
C’est donc là la question, le maître du jeu. Si cette hypothèse avec les robots conversationnels s’avérait, elle comporterait plusieurs risques.
D’abord un risque de soumission : le modèle du robot a pris la main sur l’utilisateur sur l’appréciation des sources qui l’ont nourri comme sur ce qu’il en ressort ! La voix de son maître, tais-toi et écoute ce qu’on te dit !
Mais aussi un risque de paupérisation culturelle : une normalisation donc une réduction de la culture dès lors que se diffusent majoritairement des représentations construites par un modèle qui s’appuie sur des données existantes sans débat contradictoire nourricier.
Et un risque d’accroissement des inégalités : les efforts d’esprit critique ou de dissidence seront d’autant plus pesants que le travail sera mâché, ce qui desservira la grande majorité de celles et ceux qui ne pourront pas les consentir, quelles qu’en soient les raisons.
On pense alors à Gilles Deleuze, qu’on vous invite à écouter et réécouter, sur l’art et les sociétés de contrôle. Il stipulait dès 1987 que l’information constitue un « mot d’ordre » car elle dit « ce que vous êtes censés devoir croire » ou plus exactement de « nous comporter comme si nous le croyions ».
L’information, en cela qu’elle consiste à « faire circuler un mot d’ordre », est un système de contrôle dont Deleuze affirmait qu’il constituerait le moyen principal d’une « société de contrôle ». No Comment… Vous voyez le truc venir ?
Il ajoutait aussi que la « contre-information » étant inopérante à ses yeux, que seul « l’acte de résistance » pouvait avoir un effet de contre-pouvoir, l’art et la création en étant un des plus importants.
Au fond, si l’on craint qu’une généralisation massive des robots conversationnels s’apparente à une maîtrise des « mots d’ordre » avec pour corollaire contrôle et normalisation de l’information, quel acte de résistance poser ?
Si ce n’est celui de développer tout aussi massivement la culture…
Il ne faut pas nier les formidables avancées de l’IA car les modèles d’apprentissage dont il est question offrent des avantages considérables, y compris dans des domaines comme l’analyse de séquences biologiques.
En revanche, leur puissance oblige à ne pas occulter les conséquences potentielles sur un plan sociétal. Or, en l’occurrence, l’enjeu des années à venir est indiscutablement celui de la culture donc de l’éducation !
En résumé, adopter les robots conversationnels comme principal moyen d’accès à l’information comporterait des risques de pensée unique aux conséquences dévastatrices. Il convient donc d’apprendre à les utiliser en comprenant leur fonctionnement pour en faire de puissants alliés non pas un moyen de notre asservissement.
J’ai bon chef ?
Oui tu as bon mais on ne va pas en faire toute une histoire
[1] Bouvard. P, Storhaye P. (2002) « Knowledge Management : Vade Mecum » EMS