Bataille au sommet de l'Intelligence artificielle pour créer l'assistant ultime : après OpenAI et son GPT-4o, Google présente aussi ses nouveautés

Après la présentation de la nouvelle version de ChatGPT, lundi, Google présente à son tour de nouveaux outils de recherche avec l'aide de l'intelligence artificielle.
Article rédigé par Anicet Mbida
Radio France
Publié
Temps de lecture : 2 min
Le PDG de google, Sundar Pichai, lors de l'ouverture de la conférence Google I/O, le 14 mai 2024. (CHRISTOPH DERNBACH / DPA)

Les géants de l'intelligence artificielle se répondent coup pour coup. Après la présentation lundi 13 mai de GPT-4o, la nouvelle version de ChatGPT, par OpenAI, Google a dévoilé mardi 14 mai ses nouveaux projets. C’était lors de l’ouverture de Google I/O, sa grande conférence annuelle. Évidemment, il a beaucoup été question d’intelligence artificielle et cela a beaucoup tourné autour des nouvelles façons de rechercher de l’information.

La démonstration la plus impressionnante était celle d’une personne qui filme une pièce avec son téléphone et qui lui demande : "Tu n’aurais pas vu mes lunettes ?" L’application répond : "Si, sur la table près d’une pomme rouge". Effectivement, elles étaient bien sur la table.

L’objectif est de pouvoir poser des questions sur tout ce qui va passer devant la caméra du téléphone. Par exemple, "à quoi sert ce petit truc-là ?", en l’entourant avec son doigt sur l’image. Une façon plus simple et plus naturelle de rechercher de l’information.

La course à l'assistant

Tout le monde espère créer cet assistant ultime, qui pourrait voir le monde comme nous et répondre à nos questions comme le ferait un être humain. Chez OpenAI, il s’agit du nouveau ChatGPT-4o. Chez Google, cela s’appelle Projet Astra. C'est un projet, car c’est encore de la recherche, contrairement à GPT-4o qui doit arriver dans les prochaines semaines.

Certains éléments seront tout de même bientôt disponibles dans les produits Google, par exemple, la recherche en enregistrant une vidéo. Par exemple, si le lave-linge est en panne et que beaucoup de lumières clignotent, il suffit de filmer la scène en demandant : "Qu’est-ce que veulent dire ces lumières ?". Il va interpréter la vidéo et récupérer les informations correspondantes sur les forums, les blogs et les sites web. Là aussi, ce sera plus simple de montrer son problème plutôt que d’essayer de le décrire avec des mots-clés.

Cette nouveauté devrait arriver dans les semaines qui viennent sur l’application Google Lens, qui permet déjà de faire des recherches à partir de photos. La bataille est désormais lancée. Google et OpenAI ont tiré les premiers. On attend désormais la réponse de Microsoft, qui aura lieu lors de l'événement Microsoft Build, du 21 au 23 mai, et celle d’Apple, au mois de juin.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.