Intelligence artificielle : ChatGPT, l'outil le plus célèbre d'IA générative, a débloqué pendant des heures

Pendant quelques heures, mardi, les utilisateurs de l'outil développé par la start-up OpenAI ont fait face à une untelligence artificielle pour le moins incohérente.
Article rédigé par franceinfo avec AFP
France Télévisions
Publié
Temps de lecture : 1 min
Open AI a fait savoir sur son site, le 22 février 2024, que ChatGPT fonctionnait à nouveau "normalement". (NIKOLAS KOKOVLIS / NURPHOTO / AFP)

L'intelligence artificielle a-t-elle besoin de repos ? ChatGPT, la très populaire interface d'IA générative, a débloqué pendant plusieurs heures, mardi 20 février, répondant aux questions des utilisateurs avec des phrases sans queue ni tête. Un exemple ? "L'argent pour le bit et la liste est l'un des étrangers et l'internet où la monnaie et la personne du coût est l'un des amis et la monnaie", a déclaré l'IA, sollicitée par un utilisateur. Ce dernier a raconté sa mésaventure sur le forum des développeurs qui utilisent les outils de la firme OpenAI, la start-up qui a lancé le programme à la fin de l'année 2022.

Toutes ses conversations avec le modèle de langage "se transforment rapidement en grand n'importe quoi depuis trois heures", a-t-il alerté. "Il génère des mots totalement inexistants, omet des mots et produit des séquences de petits mots-clés qui me sont inintelligibles, entre autres anomalies", a relaté un autre utilisateur, alors que de nombreuses captures d'écrans sont apparues pour faire état du comportement "étrange" de l'IA. "J'ai l'impression que mon GPT est hanté". 

Open AI a fait savoir mercredi matin sur son site que ChatGPT fonctionnait à nouveau "normalement". Sur X, la start-up a en partie expliqué l'origine du problème : une "optimisation de l'expérience utilisateur" qui a "introduit un bug dans la manière dont le modèle traite le langage".

La veille, la start-up avait annoncé "enquêter sur des signalements de réponses inattendues de la part de ChatGPT", avant d'annoncer quelques minutes plus tard avoir "identifié le problème" et "être en train de le résoudre". 

Gary Marcus, spécialiste de l'IA, espère que l'incident sera perçu comme un "signal d'alarme", a-t-il écrit mardi dans sa newsletter. "Ces systèmes n'ont jamais été stables. Personne n'a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes", a-t-il écrit au sujet de cet incident qui rappelle que l'IA, même générative, n'a pas de conscience ni de compréhension de ce qu'elle "dit". "Le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer (...) reste primordial", a-t-il ajouté.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.