Nouveau monde, France info

Nouveau monde. L'Union européenne pose le cadre d’une intelligence artificielle éthique et certifiée

La Commission européenne présente mercredi 21 avril son projet de règlementation contre les dérives des systèmes à base d’intelligence artificielle.

--'--
--'--
Copié dans le presse-papier !
La reconnaissance faciale appliquée à des piétons dans une rue de Fuzhou (Chine). Photo d\'illustration.
La reconnaissance faciale appliquée à des piétons dans une rue de Fuzhou (Chine). Photo d'illustration. (VCG / VISUAL CHINA GROUP / GETTYIMAGES)

C’est un gros dossier auquel s’attaquent mercredi 21 avril les commissaires européens Margrethe Vestager et Thierry Breton, en présentant leur projet de règlementation de l’IA, une première mondiale. Pourquoi règlementer l’intelligence artificielle ? Il s’agit de dire ce qui est autorisé et bénéfique en matière d’intelligence artificielle, comme les innovations liées au climat, à l’énergie ou à la santé ; et ce qui sera interdit, comme les systèmes de surveillance de masse par reconnaissance faciale ou de notation des citoyens sur le modèle du crédit social à la chinoise.

Une intelligence artificielle éthique

Il ne s’agit pas d’interdire mais de règlementer l’IA, notamment pour éviter les biais, ces dérives parfois constatées sur des systèmes mal programmés ou mal surveillés (par exemple, lors de l’analyse automatique des CV pour l’embauche ou l’examen de demande de crédits bancaires). L’Union européenne veut que l’on puisse bénéficier des avancées de l’IA, et que la filière se développe, mais qu’il s’agisse d’une IA éthique, ne risquant pas de nuire au citoyen.

Cela va passer par l’interdiction pure et simple de certains systèmes, notamment les applications qui peuvent causer du tort aux personnes en manipulant leurs comportements, leurs opinions ou leurs décisions. Pour cela, il y aura des contrôles et une certification, à l’instar de ce qui se fait avec les produits matériels qui doivent répondre aux normes UE. Par exemple, une entreprise qui commercialise un logiciel d’intelligence artificielle devra faire une auto-évaluation, sous le contrôle d'une autorité de surveillance. Et pour les applications jugées "à haut risque", il y aura des tests de conformité avant la mise sur le marché.

La reconnaissance faciale utilisée au cas par cas

En ce qui concerne la surveillance, comme la reconnaissance faciale intelligente, cela pourra être utilisé de manière dérogatoire, sur des zones et pour des durées limitées, dans le cadre de la lutte antiterroriste et de la sécurité. Enfin, il y aura des sanctions qui pourront aller jusqu’à 4% du chiffre d’affaires des entreprises (plafonnée à 20 millions d’euros).

Bref, au final, une sorte de règlementation globale de l’IA, qui devrait placer l’Europe dans une situation assez particulière, par rapport à ce qui se fait en Chine ou aux États-Unis.

La reconnaissance faciale appliquée à des piétons dans une rue de Fuzhou (Chine). Photo d\'illustration.
La reconnaissance faciale appliquée à des piétons dans une rue de Fuzhou (Chine). Photo d'illustration. (VCG / VISUAL CHINA GROUP / GETTYIMAGES)