La méthode RARE pour déléguer à l’IA

Dans cet épisode nous allons nous demander quels critères utiliser pour savoir quand on peut raisonnablement déléguer une tâche à l’IA.

Les uns voient l’IA comme la nouvelle pierre philosophale de l’humanité qui la bouleversera à tout jamais.

Les Cassandre prédisent une humanité « anodonte », pour reprendre le mot de l’ethnologue André Leroi-Gourhan (Leroi-Gourhan A.1964), c’est-à-dire des mollusques privés de leurs facultés cognitives à force de les déléguer.

D’autres y voient un bon assistant – ou une armée de petits assistants qui collaborent entre eux – et à qui on peut déléguer des activités. Avec cet avantage, qu’a priori aucun d’entre eux ne se plaint.

Seulement voilà, ça « hallucine », ça invente, ça ne pense pas mais ça dit ce que cela ne sait pas avec une assurance trompeuse, donc ce n’est quand même pas si fiable que cela ! Alors il faut faire gaffe.

Se pose donc la question des critères sur la base desquels on peut décider de confier une activité à une IA. Ou pas. Alors, la méthode RARE pour déléguer à l’IA, c’est quoi l’histoire ?

Le monde de l’entreprise a ceci de particulier qu’il aime bien les acronymes, façon objectifs SMART, alors on a inventé la méthode RARE. Facile à retenir non ?

Alors de quoi s’agit-il ? 4 critères sous forme de questions à se poser avant de donner un truc à faire à l’IA, comme on tournerait sa langue dans sa bouche 7 fois avant de dire une connerie.

Sauf, que là on ne la tourne que 4 fois. Ça va plus vite. RARE pour Risqué Acceptable Reproductible Explicable.

Risqué d’abord. Le sujet est d’une rare simplicité. Quand on délègue quelque chose, on assume le risque du résultat obtenu par le délégataire. Déléguer c’est confier un pouvoir et une autonomie à quelqu’un, qui l’accepte, et c’est endosser la responsabilité finale.

En l’espèce, l’IA présente un avantage qui est peut-être un inconvénient. Elle accepte en toute hypothèse sans te contredire. Un être humain sage et avisé – tu me rétorqueras qu’on se demande si cela existe – peut, lui, dire stop.

Au motif qu’il ne se sent pas en capacité d’assumer cette responsabilité parce qu’il n’en n’a pas les compétences par exemple. L’IA, elle, elle prend. Et si elle ne sait pas, ce n’est pas grave elle inventera.

Comme dans toute délégation, il faudra bien sûr contrôler le résultat et ça, cela nous renvoie à notre rigueur et à notre paresse. Mais au demeurant, sachant que l’IA ne comprend pas la question ni la réponse qu’elle formule, il vaut mieux se poser la question avant !

Quel risque est assorti à cette activité ? Quelles sont les conséquences d’une erreur ? Est-ce que j’assume ce risque et comment j’y pare s’ils s’avèrent ?

On en revient aux fondamentaux. Risque, incertitude et danger. Voilà ce qu’il faut apprécier au départ.

A pour acceptable. La question à se poser ici n’est pas tant de savoir si moi j’accepte ou pas de confier cette tâche à l’IA. A la limite, la première question sur le risque y répond déjà.

En revanche, si moi je l’accepte encore faut-il se demander ce qu’il en est des autres. Est-ce que c’est acceptable par l’entreprise que je représente par exemple, tant sur un plan formel c’est-à-dire réglementaire qu’informel ?

Est-ce que c’est légal aussi ! Le pénal ce sera toujours pour toi, pas pour l’IA ! Mais est-ce aussi acceptable par les autres parties prenantes, qu’il s’agisse des clients internes ou externes auxquels le travail final est destiné ?

Est-ce socialement acceptable aussi ? On sait ce qui peut advenir quand on mutualise avec un Centre de Service Partagé. Tout le monde croit que c’est l’étape annonciatrice d’une future externalisation vécue, à tort ou raison, comme destructrice d’emplois.

L’IA charrie le même genre de peurs et d’inquiétudes. Là encore, à tort ou à raison, mais toujours est-il que le critère d’acceptabilité sociale n’est pas à négliger avant de faire le choix de se tourner vers une IA.

R pour reproductible ou répétitif. C’est l’éternel débat « Make or Buy ». Tu fais toi-même ou tu externalises. Or, on sait que déléguer c’est un investissement de temps.

Avec l’IA également. Temps passé à penser la meilleure manière de l’utiliser, de lui formuler les demandes, de l’art du prompt aux enchaînements d’agents et au paramétrage de serveurs MCP.

Du temps aussi pour affiner avant d’obtenir le résultat le moins incertain. Dialoguer avec l’IA pour réduire le champ des incertitudes sachant qu’elle commet des erreurs. Enfin, bien sûr le temps du contrôle.

Bref, one shot is not enough. Dit autrement, ce temps et ce travail vaut surtout la peine lorsqu’il y a quelque chose de reproductible qui le justifie. On pourrait, pour simplifier à l’extrême l’image donner celles des requêtes paramétrées.

On les crée pour qu’elles soient réutilisées parce qu’elles sont reproductibles. Même genre de raisonnement.

Enfin, E pour explicable.

L’idée est ici très simple. Assumer le risque, ce que l’on a vu en premier point, c’est bien mais si l’aléa se réalise, il faut bien pouvoir rendre des comptes.

Or, l’IA à tous les atours de la boîte noire pour beaucoup. On sait ce qui rentre – à savoir ce qu’on lui demande – on voit ce qu’il en sort mais entre les deux c’est un mystère. Il suffit d’avoir posé rigoureusement la même demande détaillée à deux LLM différents pour voir justement la différence.

Et c’est normal. Mais alors, une fois le résultat obtenu, comment rendre des comptes ? Peut-on raisonnablement expliquer ce qui doit être expliqué in fine ou, au contraire, est-on réduit à un « je ne sais pas c’est la machine » ?

Il faut donc pouvoir répondre à cette question : dans quelle mesure je peux expliquer ce qui a été fait, le rôle que l’IA y a joué et est-ce que je suis aligné avec mes responsabilités sur le sujet.

Il y aurait certainement plein d’autres critères à affiner selon les cas de figure. IA et IA générative ce n’est pas pareil, combiner des agents IA dans une chaîne automatisée à l’aide d’un protocole MCP non plus, générer une image ce n’est pas utiliser un LLM comme outil de recherche, etc.

Mais à tout le moins, voici 4 critères simples à mémoriser si cela peut aider.

En résumé, la méthode RARE propose 4 critères pour apprécier si l’on peut déléguer une activité à une IA : R pour Risqué, A pour Acceptable, R pour Reproductible et E pour Explicable.

J’ai bon chef ?

Oui tu as bon mais on ne va pas en faire toute une histoire.