Intelligence artificielle : une escroquerie utilise l'image de l'acteur Alain Delon pour attirer des internautes vers un casino en ligne
"Si vous regardez cette vidéo, c'est que je suis déjà mort. Je vous donnerai 100 000 euros si vous ne pouvez pas gagner dans mon casino en ligne." Une escroquerie utilisant l'image de l'acteur Alain Delon, mort le 18 août à l'âge de 88 ans, avait été visionnée plus de 2 millions de fois sur les réseaux sociaux mercredi 28 août. Objectif : attirer les internautes vers un casino en ligne.
Cette fausse publicité, qui utilisait la voix et l'image du comédien décédé a depuis été désactivée. Mais des vidéos alternatives avec l'acteur et redirigeant vers le casino subsistent.
De nombreuses personnalités touchées par les "deepfakes"
Sollicité par l'AFP, Meta a rappelé qu'il était contraire aux règles de la plateforme de publier des publicités avec des images de personnalités publiques de façon trompeuse afin de tenter d'escroquer des gens. Le géant des réseaux sociaux a ainsi expliqué avoir créé des modèles visant à détecter spécifiquement les contenus viraux utilisant des images de célébrités afin de mieux lutter contre eux.
Les deepfakes, ces contenus truqués en utilisant l'intelligence artificielle qui pullulent sur internet, alimentent une vague de désinformation qui touche de nombreuses personnalités, comme la star de la chanson Taylor Swift, et suscitent l'inquiétude avant des échéances électorales comme la présidentielle américaine.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.