Nouveau monde, France info

Nouveau monde. Des erreurs humaines seraient à l'origine des accidents mortels en voitures autonomes

Les deux accidents mortels liés à des véhicules automatisés qui ont eu lieu récemment aux Etats-Unis soulèvent des questions liées à la mise en œuvre de cette technologie.

--'--
--'--
Copié dans le presse-papier !
Crash-test à bord d\'un modèle Tesla, en février 2017.
Crash-test à bord d'un modèle Tesla, en février 2017. (ANNE LEBRETON / AFP)

18 mars 2018 à Tempe, en Floride : un véhicule Uber tue une piétonne qui traversait la route. 23 mars 2018 à Mountain View, en Californie : un automobiliste trouve la mort dans la collision de sa Tesla avec un terre-plein central d’autoroute. Dans les deux cas, il semble que ces accidents aient pour origine des erreurs humaines. Cependant, les explications sont assez subtiles.

Défaillances humaines

Dans le cas de l’accident de la Tesla à Mountain View, la voiture a perdu le contrôle de la conduite pour une raison encore inconnue (défaut de signalisation au sol ?) et, malheureusement, le conducteur, qui avait lâché les mains du volant, n’a pas réagi aux alertes l’invitant à reprendre immédiatement le contrôle. Rappelons que les Tesla ne sont pas des voitures autonomes et n'autorisent pas encore la conduite sans pilote.

En ce qui concerne l’accident d’Uber, il semble qu’il y ait eu une défaillance de capteur – le lidar  ou bien un problème logiciel (bug), ou encore un problème d’intelligence artificielle car la voiture n’a pas "vu" la victime traverser. Mais surtout, là encore, c’est bien une défaillance humaine qui a causé la mort de la piétonne car la conductrice de secours qui était à bord du véhicule n'est pas intervenue comme elle aurait du. Apparemment, elle n’était pas attentive car elle regardait son téléphone mobile posé sur sa cuisse. Il n’y aura pas de procès car Uber est parvenu à un accord avec la famille de la victime.

Problème d’apprentissage

Ces accidents posent de nouvelles questions inattendues. La voiture autonome d’Uber ne serait pas encore suffisamment au point. La société Waymo, concurrente d’Uber, assure qu’un tel accident ne serait pas arrivé avec sa propre technologie. Il y aurait donc "voiture autonome et voiture autonome".

Il y a aussi une vraie question liée à l'intelligence artificielle. Les voitures autonomes ont besoin "d’apprendre" à conduire (les véhicules d’Uber sont des voitures autonomes de niveau 3 que l’on "éduque" pour les transformer en véhicules de niveau 4). C’est pour cela qu’on les fait rouler pendant des milliers de kilomètres avec un opérateur à bord. Or, un opérateur humain qui n’a rien à faire se lasse, se fatigue, et relâche son attention. 

Crash-test à bord d\'un modèle Tesla, en février 2017.
Crash-test à bord d'un modèle Tesla, en février 2017. (ANNE LEBRETON / AFP)