Etats-Unis : deux systèmes d'intelligence artificielle battent des humains à un test de lecture et de compréhension

Il s'agit d'une première, selon le journal "Les Echos". Les humains en compétition avec ces deux systèmes ont cependant démontré de meilleures facultés de compréhension. 

Un projet d\'intelligence artificielle incluant un robot de la société française Aldebaran, le 10 octobre 2017 à San Marcos, en Californie (Etats-Unis). 
Un projet d'intelligence artificielle incluant un robot de la société française Aldebaran, le 10 octobre 2017 à San Marcos, en Californie (Etats-Unis).  (MIKE BLAKE / REUTERS)
avatar
franceinfoFrance Télévisions

Mis à jour le
publié le

Et si l'intelligence artificielle (IA) dépassait l'intelligence humaine ? Pour la première fois, deux systèmes d'IA ont affiché de meilleurs résultats que des humains à des exercices de lecture et de compréhension conçus par l'université Stanford (Californie, Etats-Unis), rapportent Les Echos dimanche 21 janvier. 

Les deux intelligences artificielles, créées par le géant chinois du e-commerce Alibaba et par Microsoft, ont respectivement obtenu 82 440 et 82 650 points à cet examen, relève le journal. Face à elles, les candidats humains n'ont recueilli que 82 304 points. 

Ce test de lecture et de compréhension, appelé SQuAD, comprend pas moins de 100 000 questions sur des thèmes très variés, issus de l'encyclopédie en ligne Wikipédia, précisent Les Echos. L'objectif ? Savoir si, à l'instar des humains, l'intelligence artificielle est capable de répondre rapidement et précisément à une multitude de questions.

Les humains l'emportent sur la compréhension

Comme le soulignent Les Echos, Microsoft a réagi avec enthousiasme aux bons scores de son système d'intelligence artificielle. Cet examen représente pour la société "un jalon majeur", qui permettra peut-être aux moteurs de recherche ou aux assistants virtuels d'"apporter de l'information de manière plus naturelle" à leurs clients. 

Face à l'intelligence artificielle, les humains affichent néanmoins de meilleurs scores en matière de compréhension. Selon le journal, les réponses humaines aux questions du SQuAD correspondaient dans 91,2% des cas aux réponses attendues. Les réponses "artificielles", elles, arrivent légèrement derrière. Entre 88 et 89% d'entre elles correspondaient aux réponses espérées.