Nouvelle version de ChatGPT : OpenAI donne la vision et la voix à son robot conversationnel

Grâce à un nouveau modèle, GPT-4o, ChatGPT va pouvoir comprendre aussi bien du texte, que du son et des images, et répondre à l'écrit, par la voix ou en générant des images.
Article rédigé par franceinfo, Anicet Mbida
Radio France
Publié Mis à jour
Temps de lecture : 2min
Il n’y a plus besoin de taper quoi que ce soit dans la nouvelle version de l'application CHatGPT, on peut tout simplement bavarder avec le robot conversationnel (photo d'illustration, le 8 mai 2024) (SILAS STEIN / DPA)

Décidément, l’intelligence artificielle n’en finit plus d’impressionner. La nouvelle version de ChatGPT, ChatGPT 4o, présentée lundi 13 mai, est désormais capable d’imiter le comportement d’un humain.

L’application est vraiment bluffante. Il n’y a plus besoin de taper quoi que ce soit. On peut tout simplement bavarder avec l’application comme on le ferait avec un être humain. Elle répond du tac au tac. Il n’y a plus cette petite pause d’une seconde ou deux entre la question et la réponse. L’échange est beaucoup plus interactif. Même la voix est plus naturelle. Autre nouveauté : on peut désormais l’interrompre et lui demander n’importe quoi. Par exemple, de changer le ton de l’histoire qu’il est en train de raconter.

Des évolutions spectaculaires

Le robot conversationnel peut désormais s’adapter à nos émotions. Si on est, par exemple, énervé, pressé ou fatigué. Cette nouveauté va certainement donner des idées aux centres d’appels. Donc ne vous étonnez pas, si demain, ce sont des robots qui essaient de nous calmer quand on appelle un service client. Il n’y a pas que la voix, l’application sait aussi gérer la vision. Dans une démonstration, on lui a, par exemple demandé, "aide-moi à résoudre l’équation que je suis en train d’écrire. Mais sans me donner la réponse." Il suffit alors, de filmer ce qu’on est en train d’écrire et ChatGPT réagit en temps réel. Il corrige quand on se trompe, exactement comme si l’on avait un prof à côté de soi. Dans un autre exemple, une personne malvoyante pointe son téléphone vers la rue et demande "préviens-moi quand un taxi libre arrive". Et ça marche ! C’est la caméra du téléphone qui donne des yeux à l’application.

Cette application ne devrait pas tarder à être disponible. La version Mac est déjà accessible. Celles sur mobile et sur Windows arrivent dans les semaines qui viennent. Elle est bien partie pour devenir une sorte d’assistant ultime, comme on les imaginait jusqu’ici dans les films de science-fiction.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.