Cet article date de plus de sept ans.

"Robots tueurs" : cette "troisième révolution militaire" pose "une question de moralité pour l'humanité"

Bruno Stagno, directeur exécutif adjoint de Human Rights Watch, demande à encadrer l'utilisation de "robots tueurs" et les compare aux "armes chimiques, armes biologiques, lasers aveuglants, armes nucléaires", bannies par les États.

Article rédigé par franceinfo
Radio France
Publié
Temps de lecture : 2 min
Un robot utilisé par l'armée israélienne pour la recherche d'explosifs, en 2008 à Naplouse.  (JAAFAR ASHTIYEH / AFP)

Une centaine de responsables d'entreprises de robotique ou spécialisées dans l'intelligence artificielle, dont le milliardaire Elon Musk, ont écrit une lettre ouverte aux Nations unies pour les mettre en garde contre les dangers des armes autonomes, surnommées "robots tueurs".

"C’est vraiment la troisième révolution militaire", a estimé vendredi 25 août sur franceinfo Bruno Stagno, directeur exécutif adjoint de Human Rights Watch, ajoutant que "ce n’est pas de la science-fiction". Pour lui, "cela pose une grande question de moralité pour l’humanité car [ces robots tueurs] décideraient de manière autonome et indépendante qui tuer pendant un conflit". Il a fustigé "le petit groupement d’États qui se refuse à considérer ces questions juridiques, morales et humanitaires".

franceinfo : Quel type de missions remplissent ces robots tueurs ?

Bruno Stagno : Ils sont totalement autonomes et cela pose une grande question de moralité pour l’humanité car ils décideraient de manière autonome et indépendante qui tuer pendant un conflit. Ce n’est pas de la science-fiction, nous sommes à deux doigts de les développer technologiquement. L’idée est d’éliminer la phase d’intervention humaine pour que la machine décide quelle est la cible valable. Une machine, même si son algorithme est très développé, n’a pas la réflexion de compassion.

Saura-t-on vers qui se retourner en cas d'erreur de frappe ? 

Tout composant humain est éliminé lors d’affrontement militaire. Une fois l’algorithme déclenché, il se perfectionne lui-même et même s’il y a des technologies très développées, nous ne sommes pas à l’abri de failles électroniques. Pour nous, c’est vraiment la troisième révolution militaire. On a eu d’abord la découverte de la poudre et deuxièmement le nucléaire. (…) Ce que nous voulons est une recommandation d’un moratoire pour que les États ne développent pas ces technologies avant qu’on puisse avoir un traité international juridiquement contraignant qui va déterminer quelle est la totale autonomie et quelles restrictions faut-il instaurer pour éviter le développement des robots tueurs.

Quels sont les États sur le point de maîtriser ce genre de technologies ?

Plusieurs États, comme Israël, Singapour, la Russie, le Royaume-Uni, les États-Unis, la Corée du Sud et quelques autres se manifestent déjà pour développer ce genre de technologies. Déjà plusieurs fois dans l’histoire, nous avons vu de nouveaux types d’armements, mais après leur développement, l’humanité s’est rendue compte qu’il ne fallait pas les utiliser. Comme ce fut le cas avec les armes chimiques, les armes biologiques, les lasers aveuglants, les armes nucléaires…Tous ces types d’armements ont été bannis car considérés comme immoraux. Ce serait dommage que l’on développe les robots tueurs pour se rendre compte qu’il ne fallait pas franchir ce pas. (…) C’est une technologie qui serait, une fois développée, disponible pour des groupements non étatiques et terroristes. Lors d’une "frappe immorale", qui est responsable ? Est-ce le concepteur de l’algorithme, celui qui gère le logiciel, celui qui surveille, le commandement militaire ? On a là un petit groupement d’États qui se refuse à considérer ces questions juridiques, morales et humanitaires.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.