Robots conversationnels : les IA génératives deviennent-elles racistes au fil du temps ?
Les récents progrès dans le domaine de l'intelligence artificielle soulèvent des inquiétudes croissantes quant à l'intégration de préjugés raciaux dans des outils populaires tels que ChatGPT d'OpenAI et Gemini de Google. Une étude menée par des chercheurs du Allen Institute for Artificial Intelligence met en lumière les stéréotypes racistes contenus dans ces grands modèles linguistiques, en particulier envers le dialecte anglais Ebonics, de l'anglais modifié, utilisé par les afro-américains. Publiée le 1er mars, elle révèle que les modèles d'IA tendent à évaluer négativement l'intelligence et l'employabilité des locuteurs Ebonics par rapport à ceux qui utilisent l'anglais américain standard. Les modèles sont plus susceptibles d'attribuer des qualificatifs négatifs tels que "stupides" et "paresseux", et de les orienter vers des emplois moins bien rémunérés. Cette discrimination s'étend même aux recommandations de peine de mort pour des accusés criminels hypothétiques s'exprimant en Ebonics.
L’Ebonics, un terme qui combine "ébène" et "phonics", supprime par exemple les consonnes finales d’un mot, exclut le présent progressif ou encore utilise certains vocabulaires empruntés à des langues africaines, comme "Fleek", qui décrit quelque chose de stylé.
Que craignent les chercheurs ?
Les chercheurs craignent également l'impact de ces préjugés sur la "modification de code", un phénomène où les individus ajustent leur langage en fonction de leur audience. L'utilisation de l'Ebonics dans des contextes en ligne pourrait désavantager les candidats à l'emploi lorsqu'ils sont évalués par des modèles d'IA, qui pourraient ne pas les sélectionner en raison de leur dialecte.
Cette situation est exacerbée par la généralisation des modèles d'IA dans le système juridique américain pour des tâches telles que la création de transcriptions judiciaires et la réalisation de recherches juridiques. Des voix éminentes dans le domaine, comme la chercheuse Timnit Gebru, ont appelé à une régulation accrue de l'utilisation des grands modèles linguistiques, soulignant le risque d'un futur où les préjugés intégrés dans ces technologies influencent de manière significative les décisions critiques dans la société.
Timnit Gebru est une chercheuse en intelligence artificielle, militante pour la justice sociale dans le domaine de la technologie. Ancienne de chez Google, elle étudiait les biais dans les algorithmes de reconnaissance faciale, elle est connue pour ses recherches sur l'éthique et la diversité en IA, ainsi que pour ses travaux sur l'impact social des systèmes d'IA, en particulier en ce qui concerne les biais et les problèmes d'injustice.
Bien que les grandes technologies aient développé des garde-fous éthiques pour réguler le contenu que les modèles de langage peuvent générer, l'étude suggère que ces mesures ne font que masquer les préjugés plutôt que de les éliminer. Les modèles apprennent à être plus discrets sur leurs préjugés, imitant les comportements de personnes instruites qui peuvent exprimer le racisme de manière moins ouverte mais tout aussi nuisible.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.