Intelligence artificielle : Meta veut labelliser les contenus générés par IA pour lutter contre la désinformation

La maison mère de Facebook et Instagram souhaite notamment inciter les acteurs de l'IA à identifier clairement les créations de leurs logiciels, avec des signatures numériques communes.
Article rédigé par franceinfo avec AFP
France Télévisions
Publié Mis à jour
Temps de lecture : 2 min
Les logos de Facebook et de Meta. (JONATHAN RAA / NURPHOTO / AFP)

De quoi limiter la désinformation sur les réseaux sociaux ? Le géant américain Meta veut détecter et labelliser "dans les prochains mois" une partie des images générées par intelligence artificielle (IA) publiées sur ses plateformes comme Facebook et Instagram, a annoncé le groupe mardi 6 février. Il va également demander à ses utilisateurs de préciser l'origine artificielle des médias qu'ils publient, avec des "pénalités" en cas de non-respect.

Avec les progrès des IA comme Midjourney ou Stable Diffusion, n'importe qui peut aujourd'hui créer des images réalistes ou retoucher des photos existantes très rapidement. Mais ces techniques sont régulièrement utilisées à des fins de désinformation politique, de chantage ou d'humiliation publique : une fausse image pornographique de la superstar américaine Taylor Swift a par exemple été vue 47 millions de fois sur le réseau social X (ex-Twitter) fin janvier, avant d'être supprimée.

Alors que la moitié de la population mondiale en âge de voter doit se rendre aux urnes en 2024, les réseaux de Meta ajouteront bientôt une étiquette aux images artificielles "lorsque nous pourrons détecter des signaux conformes aux normes de l'industrie montrant qu'elles sont générées par l'IA", a annoncé Nick Clegg, le responsable des affaires internationales du groupe, dans un communiqué.

Des standards pas encore généralisés

Ces "signaux", sortes de "signatures invisibles" présentes dans chacune des créations d'une IA, doivent être intégrés dans les logiciels par leurs concepteurs. Meta a déjà mis en place ces étiquettes sur les images créées à partir de son outil Meta AI depuis son lancement en décembre, et "nous voulons pouvoir le faire aussi avec des contenus créés avec des outils d'autres entreprises" comme Google, OpenAI, Microsoft, Adobe ou Shutterstock, a ajouté Nick Clegg.

Mais toutes les entreprises du secteur n'ont pas encore intégré ces "signaux", comme Midjourney et Stable Diffusion, deux des IA les plus utilisées pour concevoir des images. Et les logiciels "open source" comme Stable Diffusion peuvent être modifiés librement par les utilisateurs, par exemple pour retirer ces signatures.

"Ce n'est pas parfait, la technologie n'est pas encore tout à fait au point, mais c'est la tentative la plus avancée de toutes les plateformes jusqu'à présent pour fournir une transparence significative à des milliards de personnes dans le monde", estime Nick Clegg. Le responsable espère que cette mesure "incitera le reste de l'industrie à travailler ensemble".

En parallèle, Meta va demander à ses utilisateurs de préciser eux-mêmes si une vidéo ou un son "réaliste" qu'ils publient est "créé ou altéré numériquement", selon le communiqué – une formulation qui peut concerner les médias générés par IA comme les photos retouchées par des logiciels d'édition. "Nous pourrons appliquer des pénalités" si la nature artificielle du média n'est pas signalée, menace Meta, qui précise que les contenus qui "créent un risque particulièrement élevé de tromper sensiblement le public sur un sujet d'importance" pourront se voir accoler "un label plus visible si c'est approprié"

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.