IA, paresse et béquilles
Dans cet épisode nous allons nous intéresser à l’une des conséquences de l’IA, l’extériorisation cognitive et ses conséquences.
Demande à Siri ou à Alexa, suis la route que t’indique Google maps, laisse ChatGPT écrire tes emails,… Un jour, à force de laisser les béquilles marcher à ta place, elles partiront sans toi et tu ne sauras plus marcher.
Bien sûr, on se sent tous individuellement à l’abri. Mais si l’on observe bien, chacun d’entre nous a certainement déjà perdu un peu de son autonomie ou de ses facultés à se débrouiller tout seul sur au moins un sujet.
J’en connais qui sont incapables de lire une carte pour se diriger, par exemple, ou qui demande encore à leur app de leur indiquer le chemin qu’ils font pourtant tous les jours.
On a aussi toutes et tous ces exemples d’instructions qui nous prennent pour des idiots, du genre « ouvrir la boîte avant de manger la pizza ». Bien sûr, il y a celles qui relèvent d’un astucieux marketing viral.
Et celles qui relèvent d’une exigence juridique ultra-protectrice mais à laquelle on n’échappe pas. Mais, peut-être, certaines sont-elles aussi révélatrices de ce que nous devenons.
La question qui se pose, c’est jusqu’où céder au confort des automatisations et autres béquilles qui nous facilitent la vie mais sans perdre nos facultés et notre autonomie. Alors, IA, paresse et béquilles, c’est quoi l’histoire ?
Depuis quelques années, l’essor spectaculaire de l’intelligence artificielle – et tout particulièrement des systèmes d’intelligence générative – ravive une angoisse sourde : celle d’être remplacés.
Ce sentiment d’être « dépassé par nos propres créatures » nourrit à la fois des fantasmes apocalyptiques et des prophéties transhumanistes. Mais ce n’est pas fondamentalement nouveau.
C’est plutôt le dernier avatar d’une longue histoire : celle de l’extériorisation progressive des capacités humaines.
Les craintes existentielles liées à l’IA relèvent en vérité de deux aspects. D’une part, celle de la substitution (l’IA ferait à notre place, voire mieux que nous) et celle d’une dérive incontrôlable (l’IA agirait sans que nous comprenions ses mécanismes ou ses objectifs).
Si ces craintes sont bien sûr exagérées elles ne sont pas totalement dénuées de fondement, car elles touchent au fond à l’extériorisation même de nos fonctions cognitives. C’est d’autant plus compréhensible que cette extériorisation repose sur une infrastructure, si ce n’est invisible, du moins opaque.
Ce qui pose la question de l’éthique dans l’IA, qu’on voit régulièrement mise à mal quand les chercheurs d’or y voient un nouvel eldorado, mais c’est un autre sujet.
Cette extériorisation, ou délégation cognitive, ce n’est pas un phénomène nouveau. On assiste simplement à une accélération. Depuis le paléolithique, l’être humain a utilisé des outils donc délégué une forme de capacité, physique en l’occurrence.
Les livres aussi, c’est une extériorisation de la mémoire, doublée d’une socialisation puisqu’on la rend accessible à un plus grand nombre. Ce n’est pas un phénomène nouveau donc.
Michel Serres avait par exemple évoqué cette extériorisation liée au numérique dans une communication prononcée à l’Académie Française dans la séance du jeudi 16 novembre 2017.
L’extériorisation sur les temps longs de l’humanité décrite par André Leroi-Gourhan, ethnologue français, l’avait même conduit à formuler la prophétie suivante en 1964 : « Une humanité anodonte et qui vivrait couchée en utilisant ce qui lui resterait de membres antérieurs pour appuyer sur des boutons n’est pas complètement inconcevable » (Leroi-Gourhan André, 1964).
Les anodontes ce sont des mollusques d’eau douce. Bref. Tout le sujet est là. Nous façonnons nos outils mais les outils nous façonnent aussi. Le numérique et l’IA comme le reste.
C’est pour notre plus grand bien pourra-t-on dire puisque notre confort augmente, la vie nous en étant facilitée. De quoi aurions-nous peur ?
De nous-mêmes peut-être et de notre paresse en particulier. Un risque non négligeable de voir notre faculté confiée à un tiers s’amenuiser avec le temps jusqu’à la perdre. Or, là ce dont il s’agit c’est de nos facultés cognitives.
L’être humain, son intelligence et ses facultés cognitives, l’information et le langage sont des sujets qui sont assez liés quand même. La question qui se pose avec l’IA est donc celle d’un équilibre.
D’une part, son utilisation intelligente – avec discernement et esprit critique – alliée à des formes d’automatisation et robotisation facilite la vie, nous rend normalement plus efficaces, nous « augmente » pour reprendre une expression à la mode.
De l’autre, un recours trop systématique, une sorte de délégation constante de certaines de nos facultés pourrait contribuer à nous les faire perdre donc à nous diminuer.
Seconde hypothèse particulièrement importante si l’on apprécie toute la dimension politique et sociétale du sujet, notamment dans la perspective où le plus grand nombre s’en remettrait à un quelconque LLM comme vérité absolue.
On est aussi entre deux prophéties. Celle de Deleuze sur les autoroutes de l’information comme instruments de contrôle, sur laquelle nous avions alerté en son temps, et celle de Leroi-Gourhan sur une humanité anodonte.
Ces deux extrêmes posent deux sujets clés pour les années à venir. Paresse et responsabilité.
Le premier, la paresse, c’est cette capacité que nous avons à choisir ce qui demande le moins d’effort. Or, apprendre demande des efforts et les efforts cela fait mal. Cela questionne le culte du bien-être comme un dû et les risques liberticides qui vont avec.
On est en plein « discours de la servitude volontaire » de La Boétie (de La Boétie Etienne, 1549) dont la lecture (ou la relecture) est particulièrement d’actualité, quand bien même date-t-il de 1549. Une série comme « Severance », dans le monde du travail, le révélait assez bien selon nous.
Le second, la responsabilité, renvoie à l’idée d’IA éthique au sens le plus large du terme c’est-à-dire de l’ensemble de l’écosystème que cela draine. Or, en l’espèce, on le sait, les considérables enjeux financiers qui y sont associés ne facilitent pas les choses.
La paresse donc est notre premier levier, celui de ne pas lâcher l’effort que toute démarche critique exige pour maintenir et faire grandir ce que nous sommes.
Reste à éduquer et encore éduquer, et, en entreprise, la fonction RH a là une responsabilité importante dont elle ne peut pas s’affranchir.
En résumé, l’IA est une extériorisation de nos facultés cognitives. En lui délégant trop systématiquement et aveuglément, cela risque de diminuer nos propres facultés. C’est d’abord une question d’effort pour ne pas céder au confort ou à la facilité qu’elle permet.
J’ai bon chef ?
Oui tu as bon mais on ne va pas en faire toute une histoire.