L’IA ne déshumanise pas

Dans cet épisode, nous allons aborder l’une des peurs liées à l’intelligence artificielle, du moins pour certaines et certains, à savoir la déshumanisation.

Moi ma lubie c’est le luddisme. Non pas que cela m’amuse, en vrai ça me fout la trouille !

Le luddisme en vrai, oui, ce n’était pas un jeu, malgré ce que la consonnance du mot pourrait laisser croire. C’est un terme qu’on doit à l’historien britannique Edward Thompson et qui désigne un mouvement social violent, en 1811.

Une révolte contre les métiers à tisser en Angleterre. Le nom vient d’un ouvrier, Ned Ludd, qui aurait détruit des machines, mais comme l’indique Wikipédia, on ignore s’il a existé. Bref, une révolte contre les machines qui piquaient, c’est le cas de le dire, le boulot des gens.

C’était le cas pour certains d’entre eux, notamment les familles paysannes. Craindre pour son emploi, on comprend. Or, l’IA n’échappe pas à la règle, la question de l’emploi est aussi posée.

En toile de fond, une autre crainte se dessine. Une peur viscérale, celle d’une déshumanisation à cause de l’IA. Un terme qu’on agite souvent comme un spectre. Alors, l’IA ne déshumanise pas, c’est quoi l’histoire ?

Sur des sujets où il n’est pas rare que les gens soient portés par leurs peurs et leurs fantasmes, en tout cas plus que par une connaissance de la réalité technique qui les nourrit, de nombreuses confusions peuvent brouiller les pistes.

La peur n’évite pas le danger. Alors posons-nous la question du danger. De quel danger s’agit-il ? Posons-nous deux questions simples. La première, c’est quoi la déshumanisation ? La seconde, la déshumanisation de quoi ?

La déshumanisation, en soi, c’est l’action de faire perdre le caractère humain d’une personne ou d’un groupe de personnes. En psychologie sociale, c’est un concept qui recouvre des notions vastes et complexes, difficiles à définir, peut-être par ce qu’elles nous renvoient à l’humain et à l’inhumain.

On peut toutefois retenir deux idées. La première c’est le fait qu’il s’agit d’un processus de négation ou de non-reconnaissance de ce qui fait la spécificité de l’humain. Le déni du caractère humain chez l’autre ou un groupe de personnes.

Nick Haslam (Haslam cité par Blondin et Gravel, 2010) distingue en ce sens deux grands types de déshumanisation.

D’une part, le déni d’une caractéristique humaine par comparaison à d’autres espèces vivantes, qu’il appelle la « déshumanisation animalistique » et, d’autre part, la « déshumanisation mécanistique », en l’espèce, si j’ose dire, le déni de ce qui fait l’essence même de l’humain.

Bref, ce qui conduit à ce qu’un groupe se place au-dessus d’autres, à ce que l’humanité produise des monstruosités, dans toute son inhumanité.

Quant à la machine, elle, elle ne présente pas les caractéristiques qui font l’essence de l’être humain. Elle est déshumanisée.

Mais, au regard de ce que nous venons de dire, est-ce que le robot nous déshumanise ? Ou, si le robot, l’IA ou quelque chose du genre déshumanise quelque chose, de quoi s’agit-il ?

Puisque l’IA concentre les peurs de certaines et certains, pour que ce soit le cas,

il faudrait que cette dernière nie ce qui fait l’essence des êtres humains et donc que son adoption, son utilisation ou sa généralisation conduisent à ce qu’ils ne soient pas traités comme tels.

On pourrait par exemple imaginer que l’IA remplace nos fonctions cognitives. On fait court, mais si la machine pense à notre place, elle nous réduit à notre biologie ! C’est de la déshumanisation.

Mais où as-tu vu que l’IA pouvait vraiment remplacer les fonctions cognitives de l’être humain ? Franchement, ce n’est pas parce que l’IA donne l’illusion de l’intelligence réelle par la puissance impressionnante de ses fonctionnalités, qu’elle s’y substitue pleinement !

Sérieusement, le beurre sans matière grasse ce n’est pas du beurre. Peut-être est-ce bon, même si j’en doute, peut-être peut-il s’y substituer dans telle ou telle circonstance, mais ça ne remplace pas le beurre. Parce que ce n’est pas du beurre.

Soyons sérieux un instant. Bien sûr qu’on peut aisément imaginer que l’IA réalise des tâches propres à l’être humain, mais pour qu’elle le remplace vraiment, avec la réduction du champ que cela implique, c’est le résultat d’une décision.

La décision, par exemple, d’un employeur dont la vision réductrice d’une fonction la réduit à une simple expression qui la rend substituable. C’est un choix humain, conditionné en l’occurrence par une vision pauvre des choses.

Ou que les personnes elles-mêmes donnent le bâton pour se faire battre, en s’en remettant entièrement à la parole divine de l’IA et en abandonnant ce qui fait leur propre spécificité humaine, notamment esprit critique et créativité pure.

Dans les deux cas, ce n’est pas l’IA qui déshumanise. C’est l’être humain qui déshumanise en utilisant un terrain, peut-être facilitant, que l’IA lui ouvre. Mais le responsable ce n’est pas l’IA. C’est nous.

On pourrait aussi se dire que l’IA déshumanise dès lors qu’elle automatise des décisions à notre place. Un algorithme de justice, par exemple, qui déciderait de condamner les gens, sans intervention humaine.

On peut aussi penser à une utilisation de l’IA qui conduirait à l’absence totale de rapports humains, qu’il s’agisse de ton service client ou de ton coach psychologique…

Bien sûr, dans les deux cas, le résultat serait celui d’une déshumanisation. Sans doute aucun à nos yeux. Mais le responsable, là encore, ne serait pas l’IA mais bien ceux qui ont décidé de réduire la complexité de quelque chose à une expression fonctionnelle simpliste.

En toute hypothèse, nous sommes responsables de l’usage que nous faisons de l’IA. Qu’il s’agisse de paresse dans son utilisation qui, in fine, asservit l’être humain qui en fait preuve, ou de son utilisation exagérée guidée par une vision du monde simpliste et réduite à sa stricte dimension fonctionnelle, le responsable c’est l’être humain.

Les Dominicains au XVème siècle avait une devise : Arma Nostra sunt libri ou, autrement dit, « nos armes sont les livres ». Mais les responsables sont ceux qui les écrivent, peut-être ceux qui les impriment, ceux qui les lisent aussi. Mais pas les livres, ni l’encre, ni les pages.

En résumé, si l’utilisation de l’IA devait conduire à une forme de déshumanisation, le véritable responsable resterait l’être humain, qu’il s’en revendique ou qu’il en soit victime. L’IA ne déshumanise pas, mais l’humain peut déshumaniser en utilisant l’IA.

J’ai bon chef ?

Oui tu as bon mais on ne va pas en faire toute une histoire.