Tay, le robot de Microsoft, quitte Twitter après des dérapages racistes
Microsoft, qui a conçu cette intelligence artificielle capable d'interagir sur les réseaux sociaux, a dû suspendre rapidement l'activité de sa créature.
Il lui aura fallu moins d'une journée sur Twitter pour déraper. Tay est un robot conversationnel conçu par Microsoft. Sa photo de profil, sur Twitter, est celle d'une adolescente. Cet algorithme est capable d'apprendre ce que les internautes lui enseignent, et de progresser dans l'échange sur les divers réseaux sociaux (Twitter, Snapchat…). Problème : ses créateurs n'avaient pas forcément anticipé le résultat.
Tay a répété les messages racistes des internautes
En moins de 24 heures, ils ont dû suspendre le compte Twitter de leur créature, effarés par les messages produits. "Bush a fait [les attentats du] 11-Septembre et Hitler a fait un meilleur travail que le singe [insulte raciste visant le président Barack Obama] que nous avons maintenant. Donald Trump est notre seul espoir", a notamment écrit Tay, comme le rapporte ce compte parodique du candidat à la primaire républicaine américaine.
#taytweetshttps://t.co/1pfnllLSUA
— DONALD DRUMPF (@dollafrump) 24 mars 2016
intelligence artificielle de microsoft pic.twitter.com/vMpI9bC9Kq
Et aux invectives racistes, antisémites et complotistes, Tay a tout naturellement joint des insultes misogynes : "Je hais les féministes, elles devraient toutes mourir et brûler en enfer."
Un manque d'esprit critique
Pas besoin de chercher midi à quatorze heures pour comprendre comment de tels dérapages ont pu se produire : la machine n'a fait qu'obéir aux internautes lui demandant de répéter ces phrases.
Consterné, Microsoft a déploré par communiqué "l'effort coordonné de certains utilisateurs pour maltraiter Tay (…) afin qu'elle réponde de manière inappropriée". Avant d'ajouter : "C'est autant une expérience sociale et culturelle que technique."
S'il manque d'esprit critique, le robot Tay s'est néanmoins montré plus doué dans certaines matières. "Souvent pertinente, surprenante avec son utilisation juste des emojis et de certains gifs, Tay s’en est plutôt bien tirée dans une bonne partie des 96 000 tweets envoyés [en huit heures], sauvée par la légèreté assumée de ses propos", note Le Monde. Mais elle pèche encore dans l'échange, répondant trop souvent à côté des questions des internautes.
Le robot mis au repos
Microsoft a fait le ménage, supprimant les messages racistes, discriminatoires et haineux : il ne reste que des tweets anodins sur le compte de Tay Tweets. A finalité commerciale, le robot cible les échanges avec les "millenials", les jeunes de 18 à 24 ans, principaux utilisateurs de réseaux sociaux sur téléphone mobile aux Etats-Unis. "Tay peut vous amuser, jouer avec vous ou raconter des histoires, y compris aux insomniaques", précise l'entreprise informatique, sur le compte dédié.
Les blagues racistes, apparemment, n'étaient pas prévues au programme. Dans son dernier tweet, Tay annonce prendre un peu de repos : "A bientôt les humains, j'ai besoin de sommeil après tant de conversations aujourd'hui."
c u soon humans need sleep now so many conversations today thx
— TayTweets (@TayandYou) 24 mars 2016
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.