Intelligence artificielle : les pays de l'Union européenne s'accordent sur un texte pour réglementer l'IA

Un premier compromis "historique" avait été trouvé en décembre entre les principales institutions européennes. Le "AI Act" doit encore être validé par le Parlement européen.
Article rédigé par franceinfo avec AFP
France Télévisions
Publié Mis à jour
Temps de lecture : 2 min
Les Etats membres de l'UE ont trouvé un accord sur la formulation du texte censé réguler l'intelligence artificielle dans l'Union (photo d'illustration). (JONATHAN RAA / NURPHOTO / AFP)

"L'UE, c'est l'IA !" Les 27 Etats membres de l'Union européenne ont approuvé à l'unanimité un texte commun pour le "AI Act", une législation inédite au niveau mondial pour réguler l'intelligence artificielle dans l'UE, a annoncé le commissaire européen Thierry Breton vendredi 2 février.

"Les 27 Etats membres ont approuvé à l'unanimité l'accord politique conclu en décembre, reconnaissant l'équilibre trouvé par les négociateurs entre innovation et sécurité", s'est félicité le commissaire européen sur X (ex-Twitter). Le projet doit encore être validé par le Parlement européen, qui se penchera sur la question à partir du 13 février.

Par ce texte, l'UE entend établir "des obligations pour l'IA en fonction de ses risques potentiels et de son niveau d'impact", résumait un communiqué publié par le Parlement européen lors du premier accord en décembre. Lancé en 2021, ce projet de législation avait été bouleversé par l'explosion des capacités de l'IA générative, avec des logiciels comme ChatGPT ou Midjourney qui, capables de générer des textes ou des images complexes, peuvent aussi être utilisés à mauvais escient.

Obligations pour les systèmes à "haut risque"

Sur les IA génératives, des règles s'imposeront à tous pour s'assurer de la qualité des données utilisées dans la mise au point des algorithmes et pour vérifier que la législation sur les droits d'auteur est respectée. Les développeurs devront par ailleurs s'assurer que les sons, images et textes produits seront bien identifiés comme artificiels. Des contraintes renforcées s'appliqueront aux seuls systèmes les plus puissants.

Les systèmes jugés à "haut risque" (dans des domaines sensibles comme les infrastructures critiques, l'éducation, les ressources humaines, le maintien de l'ordre...) seront soumis à une série d'obligations comme celles de prévoir un contrôle humain sur la machine, l'établissement d'une documentation technique, ou encore la mise en place d'un système de gestion du risque.

Paris et Berlin étaient soucieux que la législation européenne protège les start-ups spécialisées dans l'intelligence artificielle, pour ne pas empêcher l'émergence de futurs "champions européens" du secteur. Le ministre allemand du Numérique, Volker Wissing, s'était félicité, mardi, d'avoir "pu obtenir des améliorations pour les petites et moyennes entreprises, éviter des exigences disproportionnées et veiller à ce que nous restions compétitifs au niveau international".

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.