International
Racisme: Quand l'Intelligence artificielle déraille !
La machine étant "bête", l’outil, qui avait été nourri des données de recrutement des dix dernières années dont la grande majorité des candidats, et des embauchés, étaient des hommes, a appris seul que les candidatures masculines étaient préférables et a pénalisé les CV contenant le mot "femme".
Par Boutaina RAFIK (MAP)
Rabat - ''Siri, quel temps fera-t-il demain ?'', ''Siri, qu'est-ce que j’ai de prévu la semaine prochaine ?'', ''Siri, est-ce que tu m’aimes ?''. L’Intelligence Artificielle (IA) est à la mode et elle est partout : téléphones, assistants personnels, jeux vidéo, robots, transports… Cette intelligence artificielle, qui accompagne le quotidien de plusieurs individus, aide à la prise de décision dans plusieurs entreprises et qui bientôt sera capable de raisonner au moins aussi bien que ne le fait un être humain, est au cœur d’une nouvelle polémique.
L’IA est-elle raciste ? Ses algorithmes sont-ils sensibles à la couleur, au sexe ou à la religion ? Ces questions sont revenues sur le devant de la scène dans la foulée des émeutes suscitées par la mort de George Floyd et les biais dus à l’usage des technologies de reconnaissance faciale dans le cadre du maintien de l’ordre aux Etats-Unis.
Les dérapages constatés dans les expériences menées avec l’IA ne se limitent pas à la reconnaissance faciale mais englobent plusieurs autres applications. Au-delà de l'ethnicité ou de la couleur, l’IA peut être sexiste, sélective et même discriminatoire dans ses "décisions". En attestent les multiples projets entamés et abandonnés en cours de chemin : recrutement, achat de produits, accès aux soins... L’IA et ses technologies ne font pas mieux que l’être humain. Les femmes y sont associées au foyer et aux métiers de la com’, les hommes aux professions scientifiques, les prix des produits et services dépendent de la géolocalisation et du milieu social, les recrutements favorisent un sexe sur un autre…. Ces stéréotypes ont tellement la peau dure qu’ils se trouvent reproduits dans des programmes d’intelligence artificielle.
"Tel maître, tel chien"
"L’expression « Tel maître, tel chien » n'est pas applicable qu'à nos animaux de compagnie, elle fonctionne aussi très bien pour l'intelligence artificielle, c'est même l'une de ses principales failles". Or, cette intelligence et les algorithmes qui en découlent ne sont pas à blâmer principalement parce que l'IA ne connaît que ce qu’on lui montre. Si un logiciel est entraîné à reconnaître uniquement des visages de personnes "blanches", il ne pourra pas savoir qu’il existe aussi des personnes qui ne sont pas blanches. Ou alors, il les considérera comme une donnée "anormale". Cela vaut pour toute autre notion.
En 2014, une expérience de "machine learning" a été menée par les équipes d’Amazon. Cette expérience vise à entraîner la machine à sélectionner les meilleurs profils techniques, particulièrement des développeurs, à partir d’une banque de CV envoyés à l’entreprise. Un an plus tard, un constat alarmant a été fait. L’outil "n’aimait pas les femmes". En effet, le choix opéré par la machine n’est pas sexiste. La machine étant "bête", l’outil, qui avait été nourri des données de recrutement des dix dernières années dont la grande majorité des candidats, et des embauchés, étaient des hommes, a appris seul que les candidatures masculines étaient préférables et a pénalisé les CV contenant le mot "femme". L’entreprise a fini par abandonner le projet.
Et ce n’est pas le seul. Finalement, puisque "les algorithmes de l’IA ont moins de sens commun qu'un rat", s’il fallait agir sur la source du problème, ce n’est pas l’IA qu’il faut modifier. Ce serait les humains… "Les humains peuvent mentir sur les raisons pour lesquelles ils n’embauchent pas quelqu’un. A l’inverse, les algorithmes ne mentent pas et ne nous trompent pas", affirme, dans le Guardian, Sandra Wachter, chercheuse en éthique des données et des algorithmes à Oxford. Artificielle mais sincère, au moins !