États-Unis : le test d'un F-16 piloté par une IA ouvre la voie vers une flotte d'avions autonomes
En octobre 1947, le pilote d’essai Chuck Yeager franchissait le mur du son pour la première fois, au-dessus de la base de l'US Air Force d’Edwards en Californie. Presque 77 ans plus tard, sur la même base, 2024 sera peut-être un autre moment charnière dans l’histoire de l’aviation : un avion de chasse F-16 a traversé le ciel sans pilote aux commandes.
La semaine dernière, Frank Kendall, le ministre de l’Air Force, est monté lui-même à bord du X-62 Vista, le nom donné au chasseur F-16 configuré avec une intelligence artificielle. Il a pu l’observer en vol, à 885 kilomètres/heure, sous le contrôle de cette IA, dans une simulation de combat aérien contre un autre appareil piloté par un humain. Ce qu’il a vu depuis les airs l’a clairement satisfait.
Une flotte d'avions autonomes
Pour l’US Air Force, cette technologie n’est pas juste une seule prouesse technologique. Il y a clairement une intention de dépasser le stade du prototype. L’US Air Force prévoit à terme de se doter d’une flotte d’un millier de ces avions, parallèlement aux drones pilotés par des opérateurs au sol.
Les premiers appareils du genre devraient voler dès 2028. D’après l’Associated Press, le seul média avec la chaîne NBC, autorisé à assister à la démonstration de la semaine dernière, il s’agirait de l’avancée la plus significative depuis les avions furtifs dans les années 90. Aucun autre pays ne dispose d’une telle technologie, officiellement en tout cas. La Chine, par exemple, n’aurait pas encore réussi à entraîner son intelligence artificielle ailleurs qu’en simulateur. L'avion américain Vista, lui, a déjà volé une vingtaine de fois depuis septembre et a même battu des pilotes humains en combat aérien. Ces pilotes pourraient avoir leur vie épargnée dans le futur, en envoyant un jour ces avions dans des missions dangereuses, quitte à les sacrifier.
Quel rôle dans des bombardements ?
Mais ces avions servent aussi à bombarder. Est-ce que l’intelligence artificielle déciderait qui ou quoi bombarder ? C’est une inquiétude de la part du comité international de la Croix-Rouge, qui ne veut pas voir "des décisions de vie ou de mort laissées entre les mains de capteurs et de logiciels". L’organisation appelle à une réponse politique internationale. Le risque pour la sécurité, est plutôt de "ne pas avoir" cette intelligence artificielle, rétorque Frank Kendall, le ministre de l’Air Force.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.