ChatGPT et les bases documentaires RH

Dans cet épisode, nous allons nous intéresser à une utilisation possible de l’IA, notamment les robots conversationnels comme ChatGPT, dans les Ressources Humaines.

ChatGPT et l’Intelligence Artificielle générative, ça sait tout faire hein ? Tu poses une question en langage naturel, tu discutes et paf une réponse structurée et bien écrite. Cool non ?

Fascinant en effet. L’omniscience à portée de clics ? Attention, on n’est pas loin de la totémisation, et… du totem à l’asservissement il n’y a qu’un pas qu’on va éviter de franchir.

Tu veux dire que ChatGPT ne fait pas tout et ne sait pas tout ? En effet, c’est vrai. Mais en même temps, la puissance de l’IA est impressionnante, et ne cesse de s’améliorer.

C’est vrai aussi. Au lieu de crier aux loups ou de vanter les vertus qu’elle n’a pas, intéressons-nous donc à un cas d’usage bien concret. ChatGPT et les bases documentaires RH, c’est quoi l’histoire ?

Revenons au début pour clarifier. D’abord ChatGPT n’est qu’un avatar d’un type de technologie, les robots conversationnels. C’est comme frigidaire et réfrigérateur, il ne faut pas confondre. Il y a d’autres modèles de robots conversationnels, évidemment.

Un robot conversationnel en fait ça conversationne… En résumé, cela manie bien la langue sans pour autant savoir ce que cela dit. Cela n’a pas conscience de la pertinence de la réponse que cela fournit.

C’est la limite du truc. Et aussi son point commun avec les gens qui l’utiliseraient en lui prêtant une omniscience que ça n’a pas : l’un et l’autre n’ont pas vraiment conscience de ce qu’ils font. Mais ça conversationne très bien.

Les robots conversationnels s’appuient sur la technologie des LLM pour Large Language Model. En gros, pour caricaturer, en fonction de ce que tu saisis, ce qu’on appelle un prompt, cela te prédit la séquence de mots la plus probable, à partir du corpus documentaire qui le nourrit.

Un corpus documentaire qui peut être statique, une photo à l’instant t, ou dynamique, c’est-à-dire mis à jour régulièrement. Mais en résumé, la force du LLM c’est de te restituer dans un langage parfaitement construit et naturel une réponse à ton prompt, selon le procédé qu’on vient de décrire grossièrement.

La qualité de ce qui sort dépend donc de la puissance et de la qualité de cette technologie bien sûr mais aussi et surtout de la pertinence du corpus documentaire sur lequel il s’appuie. C’est là où il peut y avoir un exemple d’usage très pertinent dans le domaine des RH.

En l’occurrence, le robot conversationnel comme interface de communication avec un ensemble de documents RH. Au lieu de naviguer dans des arborescences de documents ou faire une recherche plein texte dont on connaît la pauvreté, tu interroges ta base documentaire en langage naturel.

Et la puissance des LLM te restitue la réponse la plus probable avec un langage tout aussi naturel.

Sauf que pour que cela marche bien, ce n’est pas tout. Tous tes documents doivent être mis dans une forme qui facilite les choses. Pour ce faire, on les traduit en bases de données vectorielles.

La manière dont on le fait est donc déterminante, selon le vieil adage toujours d’actualité, IA ou pas, « Garbage In Garbage Out » : de la merde qui rentre, donc de la merde qui sort. Il faut donc structurer l’information en amont. Mieux tu le fait, meilleur sera le résultat.

Le texte de tes documents en fait est découpé en morceaux de texte. On appelle cela des chunks, traduction de morceaux. La recherche sémantique permettra de retrouver ces morceaux et le LLM, comme ChatGPT, le mettra dans un langage humain.

On parle de detalization c’est-à-dire de manière de découper en morceaux. On image alors facilement que plus on découpe fin, plus on a des réponses prévisibles car on laisse moins de liberté à l’IA pour rechercher.

À l’inverse, plus la maille du filet est large, plus les petits poissons passent au travers. En d’autres termes, plus tu risques d’avoir des réponses comment dire… originales ? Bizarres ? Créatives ? Au point parfois même qu’elles ne veuillent strictement rien dire.

Tiens j’ai fait le test en mettant plusieurs de mes bouquins dedans. Concrètement, si tu les balances comme ça, sans avoir retravaillé l’information en amont, et bien parfois il y a en effet des réponses ésotériques qui ne veulent rien dire.

Oui en fait ce que tu ne sais pas c’est que c’est ce que tu as écrit qui ne veut rien dire en fait…

Ah c’est malin chef ! Il y a donc un gros travail sur les contenus en amont si l’on veut que cela fonctionne bien. Mais c’est normal. En revanche, on peut souligner là que c’est enfin, dans la RH, un moyen d’interroger des bases documentaires dans un langage naturel, celui des gens.

Mais il faut être vigilant. Car si le sujet sur lequel cela porte relève du réglementaire, tu n’as pas le droit au freestyle dans les réponses. Or, on l’a dit le robot conversationnel ne sait pas apprécier la pertinence des réponses qu’il fournit.

Il faut donc être certain en amont d’avoir fait un travail sérieux sur les informations pour qu’il n’y ait pas trop de risques de mauvaises lectures. Il faut aussi un degré de detalization élevée, des mailles resserrées, pour ne pas laisser passer d’erreurs au travers des mailles du filet.

Mais elles sont néanmoins toujours possibles sans que tu ne disposes véritablement d’un moyen de garantir qu’il n’y en a pas. Un pari à faire mais c’est la même chose avec les êtres humains.

Tu pourras toujours tomber aussi sur un gestionnaire RH qui te fournit une mauvaise réponse. C’est humain. L’utilisation peut aussi être élargie à tout un tas de domaines où ce n’est pas le réglementaire le juge de paix.

Là le risque est nettement moindre, on pourra alors accepter une moindre rigueur dans la préparation documentaire même si cela reste fortement conseillé. Pour maîtriser tout cela, il faudra en revanche développer des compétences dans les services RH pour que l’on sache ce que l’on peut faire de ce que l’on ne peut pas faire.

L’art de savoir préparer les données comme il faut et de les interroger intelligemment donc de savoir comment elles ont été construites et comment elles sont interrogées. Cela a toujours été le cas, IA ou pas.

En résumé, les robots conversationnels permettent d’interroger des bases documentaires en langage naturel. C’est un domaine d’application utile en RH à condition de bien préparer l’information en amont et de savoir que rien ne peut garantir une justesse des réponses à 100%.

J’ai bon chef ?

Oui tu as bon mais on ne va pas en faire toute une histoire