Cet article date de plus de cinq ans.

Nouveau monde. L’Union européenne veut une intelligence artificielle "éthique" : de quoi s’agit-il ?

L’Union européenne propose des règles éthiques pour le développement de l’IA. Parmi les sept propositions qu'elle vient de faire :  le respect de l’environnement.

Article rédigé par franceinfo, Jérôme Colombain
Radio France
Publié
Temps de lecture : 3min
Derrière ces portes, l'Union européenne a émis sept propositions pour obtenir une intelligence artificielle éthique. (MAXPPP)

L’intelligence artificielle, c’est bien sauf si elle est mal utilisée. Voilà ce que dit en substance l’Union européenne, qui propose des règles éthiques pour le développement de l’IA.

En 2018, chez Amazon, un logiciel d’intelligence artificielle destiné au recrutement, chargé d’examiner des dossiers de candidatures, s’est révélé hautement sexiste : il favorisait les profils masculins au profit des profils féminins et il a dû être abandonné. Aux États-Unis encore, il y a quelques années, un programme d’aide à la décision judiciaire s’est révélé raciste en jugeant que les personnes noires présentaient un plus grand risque de récidive. Pourquoi ces dérives ? Parce que l’intelligence artificielle fonctionne sur la base de données déjà connues et a tendance à reproduire l’existant plutôt qu’à analyser certaines situations avec  "objectivité". Une IA non contrôlée ou mal programmée risque aussi de reproduire des biais humains, tels que des préjugés.

Une IA respecteuse de l'humain

L’Union européenne a émis, lundi 8 avril, sept recommandations pour une "IA éthique". Cela va de la non-discrimination à la protection de la vie privée en passant par le respect de l’environnement et la transparence des algorithmes. En substance, il s’agit de favoriser l’émergence d’une IA respectueuse de l’humain, qui ne "dérape" pas et qui respecte les droits de l’homme, la diversité, l’environnement, etc.

Ce qu’il y a de bien, c’est que si des règles claires sont fixées et les programmes sont bien faits, l’IA peut se montrer au contraire très objective et très performante. Cela passe par une responsabilité des entreprises qui développent des IA et par la transparence des algorithmes et des données. La Commission va lancer une "phase pilote" en juin prochain, durant laquelle l'industrie, la recherche et les pouvoirs publics seront invités à examiner la liste de recommandations. Ensuite, il y aura une évaluation en 2020.

Ne pas freiner pour autant le développement de l'IA

Les principes énoncés par l’Union Européenne rejoignent la prise de conscience des risques par les pays eux-mêmes. Par exemple, en France, le plan Villani pour l’intelligence artificielle fait une grande part à l’éthique des algorithmes. Récemment la ministre des Armées, Florence Parly, a déclaré, de son côté, que la France ne développera pas de "robots tueurs". Toutefois, la difficulté est de ne pas freiner pour autant le développement de ces technologies afin de ne pas accentuer le retard européen dans ce domaine.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.