Armée et IA : l'Ukraine est devenu un laboratoire pour ces nouvelles armes "intelligentes" qui inquiètent l'ONU

L’Intelligence artificielle commence à proliférer dans le secteur de la défense. Plus aucune armée ne peut se permettre de s'en passer. Si l'Ukraine est un champ de bataille expérimental pour drones dopés à l'IA, l'ONU tente d'en réglementer l'usage.
Article rédigé par Agathe Mahuet
Radio France
Publié Mis à jour
Temps de lecture : 5 min
Un militaire ukrainien de la Direction principale du renseignement, le 11 avril 2024. (GENYA SAVILOV / AFP)

Où en est aujourd'hui le développement des armes autonomes ? Doit-on s’inquiéter de la prolifération de l’intelligence artificielle ? Deepfakes, désinformation, ingérences électorales, fraude aux examens, les risques sont bien réels. Mais s’il y a bien un domaine ou l’IA suscite la peur, c’est dans l’armement. Presque toutes les grandes armées utilisent déjà ou investissent a minima dans l’intelligence artificielle et la guerre en Ukraine est devenue un laboratoire à ciel ouvert pour l’IA, non sans inquiéter l’ONU. 

En Ukraine, des drones dopés à l'IA

Le gouvernement ukrainien lui-même, le dit : "Nous sommes ici aujourd’hui une sorte de terrain d’entraînement à l’utilisation de l’intelligence artificielle", ainsi le revendique le ministre de la Transformation numérique Mykhaïlo Fedorov. L’Ukraine, en guerre depuis l’invasion russe, utilise l'IA dans ses opérations de façon extrêmement active, en général, via des drones "dopés" à l'intelligence artificielle.

Cela permet notamment de mieux surveiller l’ennemi. Les Ukrainiens confrontent les données recueillies à des algorithmes très modernes, pour mieux exploiter les informations sur les positions russes. Grâce à l’IA, ces drones vont aussi identifier des cibles malgré un camouflage, et même proposer une image artificielle, pour recréer ce qui était invisible.

Cette IA est aussi utilisée pour agir, éventuellement, avec un procédé qui guide tout seul le drone vers sa cible, qui peut prédire aussi la trajectoire de l’élément visé, et éventuellement gérer seul la frappe finale.

Pallier le manque de missiles ?

Les troupes ukrainiennes ne sont pas encore complètement équipées, et pas partout. Mais ces améliorations se font progressivement. Le ministre Mykhaïlo Federov assure qu’une vingtaine d'entreprises ukrainiennes travaillent au développement de l'IA spécifiquement pour ces drones. Des drones britanniques sont aussi déjà arrivés dans certaines unités, mais cela demande un temps de formation, pour les soldats eux-mêmes.

Si plusieurs experts de la question estiment que ces nouveaux outils ne suffisent pas à pallier le manque de missiles, cela peut avoir un réel impact et apporter une "nouvelle dynamique" sur le champ de bataille. Le chef du comité militaire de l'OTAN avance même que "l'utilisation par l'Ukraine de drones combinés à l'intelligence artificielle pourrait être plus efficace que les tirs d'artillerie russe". Évidemment, la Russie, qui augmente sa production de drones, reste très secrète sur sa façon d’y glisser elle aussi cette intelligence artificielle. En Ukraine, en tout cas, les autorités communiquent et évoquent un déploiement massif de ces drones branchés sur l’IA, dans les toutes prochaines semaines.

Inquiétude de l'ONU autour des armes autonomes

À l’automne 2023, le secrétaire général de l'ONU, Antonio Guterres, a publié un appel - avec le Comité international de la Croix-Rouge - pour demander aux États une chose : interdire ou en tout cas restreindre l’utilisation des armes autonomes dirigées par l’IA. Le fait qu’une machine puisse décider toute seule, par son algorithme, d’attaquer des êtres humains est une ligne rouge morale qu’on ne doit pas franchir, a dit le patron de l’ONU. Pour cela, il faudrait par exemple un traité d’interdiction. Comme pour les mines antipersonnel. Le plus tôt sera le mieux car Antonio Guterres aimerait que le texte soit prêt en 2026.

En décembre 2023, l’Assemblée générale des Nations unies a fait un pas dans cette direction. Une résolution, qui reconnaît les risques que posent les systèmes d’armes autonomes sur la sécurité mondiale, a été très largement adoptée. On a pu compter 152 "oui", dont celui des États-Unis, qui traînaient des pieds jusque-là. Dans les 4 "non", il y avait ceux de l’Inde et de la Russie et parmi les abstentionnistes se trouvaient la Chine et Israël, pour ne citer qu’eux.

Le cas Israël

Israël utilise déjà largement l’intelligence artificielle dans la guerre à Gaza. C’est tout sauf de la science-fiction. L’armée israélienne revendique elle-même l'utilisation d'une IA qui permet de produire rapidement de très nombreuses cibles pour l’armée. Nom de code : Habsora, "évangile" en hébreu. Mais il y en a beaucoup d’autres. Avec Lavender par exemple, le système permet de dire si un Palestinien a de grandes chances d’appartenir au Hamas, ou au jihad islamique, en analysant son comportement sur les réseaux sociaux, ses contacts, ses changements d’adresse. La marge d’erreur est de 10%, selon les médias israéliens qui ont révélé son existence. Quand on connaît le bilan humain de la guerre, cela pose bien évidemment de très nombreuses questions.

Mais qu’on soit bien clair : des armes 100% autonomes, comme des drones, qui décident d’éliminer une cible sans jamais qu’un humain intervienne, ça n’existe pas. En tout cas, pas officiellement. Techniquement, c’est tout à fait faisable. La technologie est là. Mais aucun pays n’a intérêt à dire qu’il est le premier à avoir brisé le statu quo.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.