Les réseaux sociaux de Meta vont signaler les images générées par l'intelligence artificielle

Le texte "Imaginé par l'IA" ainsi qu'un pictogramme avec des petites étoiles dans un coin signaleront les images générées par l'intelligence artificielle sur les réseaux sociaux de Meta : Facebook, Instagram et Threads.
Article rédigé par Anicet Mbida
Radio France
Publié
Temps de lecture : 2 min
Meta souhaite contrôler les images générées par l'IA sur ses réseaux sociaux. (photo d'illustration) (SURASAK SUWANMAKE / MOMENT RF)

Ces signalements d'images générées par l'intelligence artificielle devraient apparaître dans les prochains mois, annonce mardi 6 février la maison mère de de Facebook, Instagram et Threads, mais ils ne concerneront que les images. Pour les vidéos et les sons générés par l’IA, ce sera à celui qui les publie, de le préciser explicitement. S’il ne le fait pas, il risquera d’être sanctionné par la plateforme. L’objectif est évidemment de lutter contre la désinformation sur les réseaux sociaux puisque 2024 est une année électorale historique avec plus de 70 scrutins nationaux et plus de 30 présidentielles, notamment aux États-Unis et en Russie. 

Pour savoir si une image a été créée ou non par l'intelligence artificielle, Meta va se fier à des petites informations stockées dans le fichier. C’est ce que l’on appelle les métadonnées. C’est là où l’on enregistre la date à laquelle la photo a été prise, sa position GPS, l’appareil utilisé, etc.

Un premier pas vers l'authentification

Meta va repérer les informations laissées par les outils de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock. Ce sont, pour l’instant, les seuls qui seront identifiés. Or il y en a beaucoup d’autres et leurs images pourraient donc passer entre les mailles du filet. Cependant, ces métadonnées peuvent être facilement effacées et la retouche photo, sur Photoshop par exemple, n’est pas concernée. C’est donc une première étape. Mais en aucun cas, une garantie qu’une image non estampillée par leur système est une image réelle.

Il existe évidemment des modérateurs humains, Meta en emploierait même plusieurs dizaines de milliers. Sauf que sur Instagram, par exemple, près de 100 millions de photos et de vidéos sont publiées chaque jour. C’est humainement impossible à vérifier. Les modérateurs ne sont donc impliqués qu’après un premier tri effectué par un algorithme ou après un signalement d'utilisateurs de la plateforme.

On risque donc de se retrouver dans une situation que l’on a déjà connue avec le Covid. De plus en plus de désinformation signalée sur les réseaux. Mais pas suffisamment pour vraiment régler le problème.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.