Intelligence artificielle : la chasse aux bogues
L'intelligence artificielle n'est pas infaillible. Avant que des pirates malveillants ne découvrent les failles, des chercheurs en sécurité les cherchent pour qu'elles soient corrigées au plus vite.
Nul besoin d'un piratage complexe pour faire boguer la machine. Des chercheurs chinois ont démontré qu'un simple marquage autocollant sur la chaussée perturbe le système de reconnaissance d'une voiture autonome, Tesla en l'occurrence. Si le marquage se trouve sur la mauvaise voie, la voiture va se retrouver à contresens. Les constructeurs travaillent maintenant à corriger le tir.
Pancarte d'invisibilité
Les chercheurs d'une université belge ont découvert qu'une simple pancarte devant son corps pouvait empêcher la caméra de vidéosurveillance de détecter une personne. Cette pancarte n'est pas comme les autres. Elle a été dessinée en fonction des erreurs des algorithmes de reconnaissance d'images. La machine pense que c'est un décor et ne détecte plus la personne. Cette faille concerne un algorithme particulier et est unique.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.