Cet article date de plus d'un an.

"Hallucinations", fausses informations et diffamation... Aux États-Unis, ChatGPT bientôt devant un juge

Un animateur radio attaque OpenAI, l’institut de recherche qui développe le désormais célèbre robot conversationnel, en diffamation.
Article rédigé par franceinfo
Radio France
Publié
Temps de lecture : 4min
Attention : ChatGPT génère occasionnellement des informations trompeuses ou incorrectes. (OLIVIER MORIN / AFP)

Une plainte en diffamation a été déposée il y a deux semaines dans une cour de Géorgie, près d’Atlanta contre ChatGPT par un dénommé Mark Waters. Il a lancé Armed American Radio, présentée comme "la voix défendant le plus fort le droit à porter une arme" aux États-Unis. On ne sait combien il demande en termes de dommages et intérêts pour une biographie légèrement revue par le robot conversationnel.

>> Reconnaissance faciale, "deepfakes", ChatGPT... Comment l'Union européenne veut réguler l'intelligence artificielle

Le mois dernier, un journaliste travaillant pour le site AmmoLand.com, spécialisé dans les armes et munitions, a demandé à ChatGPT de résumer pour lui un procès qui opposait une association défendant le deuxième amendement de la constitution, celui sur le port d’armes, au ministre de la Justice de l’État de Washington. Et ChatGPT a expliqué que Mark Walters, l’animateur radio, était accusé d’avoir détourné des fonds de l’association, dont il était le trésorier. Sauf que Waters n’a rien à voir avec cette affaire, qu’il n’a jamais travaillé pour l’association ou été accusé de quoi que ce soit ressemblant à du détournement de fonds.

Chat GPT parfois victime d'"hallucinations"

Walters insiste sur le fait que toutes les informations sur lui dans le résumé fait par ChatGPT sont fausses, que le robot a même inventé un numéro de dossier. Les allégations risquent de porter atteinte à sa réputation, en plus de l’exposer à la vindicte populaire, indique la plainte. Autre point de la plainte : OpenAI sait que ChatGPT invente parfois des faits. Cela arrive assez souvent pour qu’OpenAI ait un nom qualifiant le phénomène : "des hallucinations". Un avertissement prévient l’utilisateur de Chatbot que le système génère occasionnellement des informations trompeuses ou incorrectes. Le problème, c’est que ces hallucinations risquent d’avoir des conséquences dans le vrai monde. Ce qui n’est pas arrivé dans le cas de Mark Waters parce que le journaliste a vérifié les informations données par ChatGPT, a compris qu’elles étaient fausses et n’a rien publié.

>> "C'est incroyable les idées qu'il peut trouver" : ChatGPT suscite autant d'enthousiasme que de questions dans les entreprises

En tous les cas, on sait déjà qu’il ne vaut mieux pas demander à ChatGPT de résumer l’affaire. Plus sérieusement, c’est une sorte de test pour le robot conversationnel qui a fait une entrée remarquée dans nos vies en novembre 2022 et dont le potentiel fascine autant qu’il inquiète. Surtout que la technologie progresse très rapidement.

Est-ce qu’OpenAI sera condamné ? Les experts, qui se sont exprimés sur le sujet, n’ont pas l’air convaincu. Oui, OpenAI sait que son chat fait des erreurs, mais il sera difficile de prouver que le laboratoire avait une quelconque intention de diffamer spécifiquement Mark Waters. En théorie, même si quelqu’un qui republie des propos diffamatoires peut être poursuivi aux États-Unis, le premier amendement sur la liberté d’expression ou la section 230, une loi sur Internet, peuvent le mettre à l’abri de poursuites. Un maire en Australie a porté plainte, lui aussi, parce que ChatGPT l’impliquait dans un scandale de corruption. Aux États-Unis, un professeur d’université a aussi été accusé par le chat de harcèlement sexuel sur des élèves. Et un avocat américain s’est ridiculisé en s’appuyant, pour un procès, sur des affaires qu’il avait trouvées sur le chat, mais qui n’existaient pas.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.