Une invasion de robots tueurs digne de "Terminator" est-elle vraiment possible ?
Dans une lettre ouverte publiée lundi, plus d'un millier de scientifiques et spécialistes de l'intelligence artificielle réclament l'interdiction des "robots tueurs".
Des robots militaires doués d'une intelligence artificielle, et capables de tuer les humains. Non, vous ne lisez pas le scénario de Terminator, avec Arnold Schwarzenegger. A en croire une lettre ouverte (en anglais) signée par plus de mille personnalités et publiée lundi 27 juillet, cette hypothèse pourrait bien se réaliser dans quelques années. Les signataires – dont le cofondateur d'Apple Steve Wozniak, l'astrophysicien Stephen Hawking et le patron de Tesla et de Space X, Elon Musk – demandent l'interdiction des armes autonomes, capables de "sélectionner et de combattre des cibles sans intervention humaine".
En majorité chercheurs dans le domaine de l'intelligence artificielle et de la robotique, ces personnalités craignent que les Etats se lancent dans "une course à l'armement", pour maîtriser ce qui est décrit comme "la troisième révolution dans les techniques de guerre". Mais en quoi consistent exactement ces "robots tueurs", et doit-on vraiment en avoir peur ? Francetv info fait le point sur la question.
Il s'agirait de drones, et non d'androïdes
La première image qui vient à l'esprit, lorsque l'on évoque des robots dotés d'intelligence artificielle, est celle d'une machine humanoïde, tout droit sortie des films Terminator ou I, Robot. Evoqués dans cette lettre publiée à l'occasion d'une conférence internationale sur l'intelligence artificielle, qui se tient en Argentine jusqu'au 30 juillet, ces robots sont, pour l'instant, loin de ressembler à des humains.
Le terme "robot létal autonome" (RLA) désigne en réalité des armes capables d'identifier et d'attaquer des cibles, sans qu'aucun ordre ne leur soit donné par un être humain. Ces machines pourraient équiper des mini-tanks ou des drones, explique ainsi Stuart Russel, professeur d'informatique à l'université américaine de Berkeley, dans la revue Nature (en anglais). Le but : limiter les pertes humaines lors de conflits, et laisser les machines prendre en charge certaines missions militaires, comme le déminage ou la lutte contre les réseaux terroristes.
Ces robots seraient opérationnels dans un futur proche
Dans Terminator, les "robots tueurs" prennent le pas sur les humains dans un futur assez éloigné. Mais en réalité, les RLA pourraient bien voir le jour dans les années à venir. "L'intelligence artificielle et la robotique permettent déjà d'effectuer [certaines missions] de repérage, de contrôle des moteurs, de navigation, de cartographie, de prise de décisions tactiques et d'organisation sur le long terme, rappelle Stuart Russel, cité par le Daily Telegraph (en anglais). Il suffit simplement de combiner [ces systèmes]."
L'Agence pour les projets de recherche avancée de défense (Darpa), une branche du département américain de la Défense, travaille ainsi sur deux projets de robots autonomes, rapporte le quotidien britannique. L'un porte sur une sorte de petit hélicoptère capable de manœuvrer seul et à grande vitesse dans les immeubles ou en milieu urbain. Le second projet consiste à développer un ensemble d'appareils aériens qui pourraient réaliser seuls "toutes les étapes d'une frappe aérienne", même quand les communications avec le commandement humain sont coupées.
Vu les progrès rapides de la robotique, les RLA pourraient donc bientôt prendre part aux opérations militaires. "L'intelligence artificielle a atteint un point où le déploiement de tels systèmes sera - matériellement, sinon légalement - faisable d'ici à quelques années et non décennies", affirment ainsi les spécialistes de la robotique, dans la lettre ouverte publiée lundi.
Des machines qui pourraient devenir incontrôlables
ou dangereuses pour l'humanité
Ces armes autonomes posent de nombreuses questions éthiques : comment adapter le droit international pour encadrer leur utilisation ? Peut-on laisser des machines prendre des décisions militaires sans contrôle humain ? La crainte de Stuart Russel est, en effet, que les RLA ne "violent les principes fondamentaux de la dignité humaine en permettant à des machines de choisir qui tuer, par exemple si elles ont pour mission d'éliminer quiconque a un 'comportement menaçant'", note le Daily Telegraph.
L'autre risque, plus proche du danger que représente l'intelligence artificielle Skynet dans Terminator, est de voir les hommes dépassés par leur propre création. "Les êtres humains sont limités par une évolution biologique lente, ils ne peuvent pas suivre la cadence, prévient l'astrophysicien Stephen Hawking, dans un entretien avec la BBC (en anglais). L'intelligence artificielle pourrait se développer d'elle-même, se restructurer de son propre chef à un rythme de plus en plus rapide."
Sans même évoquer ce scénario, qui relève pour l'instant de la science-fiction, la possibilité de voir ces armes autonomes se répandre inquiète la communauté scientifique. "Ce ne sera qu'une question de temps avant qu'elles n'apparaissent sur le marché noir et dans les mains de terroristes ou de dictateurs souhaitant contrôler davantage leur population et de seigneurs de guerre désirant perpétrer un nettoyage ethnique", préviennent les chercheurs dans la lettre ouverte. Une mise en garde déjà lancée par Elon Musk, qui estimait en 2014 sur Twitter, que l'intelligence artificielle était "potentiellement plus dangereuse que le nucléaire".
Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes.
— Elon Musk (@elonmusk) 3 Août 2014
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.