Intelligence Artificielle et discrimination: réalité ou fausse promesse ?
Dans cet épisode nous nous demandons si l’Intelligence Artificielle comme solution pour lutter contre les discriminations est une réalité ou une fausse promesse.
Retranscription de l’épisode
Dans cet épisode nous allons vous parler d’IA et de discriminations.
L’IA est de plus en plus présente dans le monde de l’entreprise et véhicule de nombreuses promesses : gain de temps, gain de coût, efficacité, limite du risque d’erreur, automatisation des tâches répétitives.
Mais parfois, on entend aussi que l’IA est une solution contre les discriminations. Fausse promesse ou réalité ? C’est quoi l’histoire ?
Avant d’accuser l’IA d’être discriminante ou de lui attribuer des vertus salvatrices, il est important de savoir de quoi l’on parle. L’Intelligence Artificielle se caractérise par des algorithmes agrémentés d’une grande puissance de calcul, une quantité de données importante et une capacité d’apprendre. Il s’agit donc d’un coté de données et de l’autre de data scientists qui modélisent ces algorithmes à la base de la technologie.
L’Intelligence Artificielle n’a d’ailleurs d’intelligent que son inégalable puissance de calcul et de déduction mais certainement pas une capacité critique à questionner son cadre de référence. Ainsi, elle reproduit ce qu’elle connait, provenant des données qu’on lui a fourni. Si ces données reflètent la réalité, alors elles reflètent également les discriminations rampantes qui s’y trouvent.
C’est exactement ça. Les données sont le reflet de la réalité de l’entreprise à un instant T et rien n’indique a priori que cette réalité soit non-discriminante. Il faudrait alors, pour que l’IA ne soit pas discriminante que les données dont elle se nourrit ne reflètent pas la réalité telle qu’elle est, mais telle qu’elle devrait être.
Oui mais alors pour cela, il serait nécessaire de faire un travail amont sur les données utilisées pour créer l’IA mais également sur les propres biais et stéréotypes des humains qui seront à l’origine de celle-ci.
Oui tout à fait. On parle souvent de quantité de données pour l’IA. On entend souvent dire qu’il faut des données en grande quantité. C’est vrai. Mais ce n’est pas suffisant. Il faut aussi des données de qualités. Nous parlons alors de « nettoyer les données » pour avoir des « données propres ».
Nettoyer les données ça veut simplement dire s’assurer que les données ne présentent pas de biais. Et les biais peuvent être de tout ordre : des erreurs humaines, une suite de faits indépendants de la volonté humaine, des biais conscients ou inconscients qui se sont perpétués et qui ont conduit à une situation déséquilibrée pour une certaine catégorie sociale, souvent en minorité.
Oui, et finalement peu importe l’origine de ce déséquilibre, ce qui est important c’est d’identifier qu’il y a déséquilibre et le corriger avant de fournir la donnée à l’IA. Parce que sans nettoyage amont, un algorithme va inévitablement renforcer le déséquilibre. Rappelez-vous, il ne remet pas en cause le modèle qu’on lui fournit.
C’est typiquement ce qui s’est produit avec l’outil de recrutement d’Amazon qui a fini par privilégier les hommes blancs pour des postes de développeurs puisque la donnée lui indiquait que c’était les hommes blancs qui réussissaient davantage dans cette fonction.
Exactement, c’est le risque. Il est donc important de nettoyer les données. Et là les créateurs ou créatrices des IA ont un rôle essentiel à jouer.
En fait, de la même manière que les développeurs nettoient la donnée d’erreurs en corrigeant les fautes de frappe et d’orthographe, normalisant les terminologies, supprimant les doublons… il est important qu’ils consacrent également leur nettoyage à la recherche de biais potentiels.
Tout à fait. C’est de la responsabilité des développeurs et des data scientist. Mais pas seulement. Cette responsabilité est aussi portée par les clients, les utilisateurs finaux de l’IA. Ici par exemple les DRH qui sont commanditaires sur le projet.
Tu as raison, et ça se passe à deux niveaux. Tout d’abord en amont, bien souvent ce sont les entreprises clientes qui fournissent leur propre base de données comme terrain de jeu pour l’IA. Charge à elles alors de mener conjointement avec les développeurs une étude de leurs données. Cela nécessite de porter un regard objectif sur les faits dans l’entreprise et identifier là où les pratiques actuelles ont conduit à défavoriser une population vis à vis d’une autre.
Et ensuite, il est essentiel que l’utilisateur final, ici les professionnels RH, se rappellent que le résultat apporté par l’IA n’est pas une vérité absolue. Il est important d’user de notre esprit critique pour prendre la meilleure décision qu’il soit. Cela renvoie d’ailleurs aux compétences que les RH doivent développer pour s’emparer de l’analytique RH, mais c’est un autre sujet.
Et ainsi, quand elle ne se substitue pas à l’intelligence humaine, l’IA devient un merveilleux outil permettant non seulement de gagner du temps mais aussi de prendre des décisions plus éclairées.
En résumé, Si la donnée est biaisée c’est certainement qu’il y avait discrimination avant l’IA, introduire de l’IA ne changera pas fondamentalement ces facteurs de discrimination. En revanche, un projet d’implémentation d’outil, est une réelle occasion de se questionner sur ces facteurs, d’abord pour créer un outil moins discriminant, mais aussi, et surtout, pour devenir, à l’avenir, plus attentif et que ces biais, devenus désormais conscients ne se perpétuent plus. L’IA devient finalement un prétexte pour questionner les pratiques humaines et les faire évoluer.
J’ai raison cheffe ?
Oui mais on ne va pas en faire tout une histoire.