Nouveau monde, France info

Nouveau monde. Vidéo sur Facebook de la tuerie en Nouvelle-Zélande : l’intelligence artificielle ne peut pas tout faire

Facebook est accusé d’avoir permis la diffusion en vidéo live de l’attentat de Nouvelle- Zélande, grâce à une caméra embarquée par le tueur. Était-il possible de faire autrement ?

--'--
--'--
Copié dans le presse-papier !
Des passants viennent se recueillir et déposer des fleurs près de la mosquée Masjid Al Noor où de nombreux fidèles ont été tués à Christchurch (Nouvelle-Zélande), le 19 mars 2019.
Des passants viennent se recueillir et déposer des fleurs près de la mosquée Masjid Al Noor où de nombreux fidèles ont été tués à Christchurch (Nouvelle-Zélande), le 19 mars 2019.(MARTY MELVILLE / AFP)

Facebook est accusé d’avoir mis 17 minutes avant de bloquer la vidéo atroce de la tuerie de Christchurch. Si l’indignation est légitime, il faut cependant rappeler que Facebook n’est pas une chaîne de télévision et ne contrôle pas a priori les contenus postés par les internautes, surtout lorsqu’il s’agit de vidéos en direct (Facebook Live).

Selon les chiffres communiqués par le réseau social, 1,5 million de vidéos de la tuerie de ChristChurch ont été supprimées en 24 heures, dont 1,2 million au moment des téléchargements, c'est-à-dire sans que personne ne les ait vues. Il s’agissait de reprises de la vidéo d’origine repostées par d’autres personnes, qui ont aussi été diffusées sur YouTube, Twitter, Reddit ou encore 8Chan.

L’intelligence artificielle impuissante

On parle beaucoup l’intelligence artificielle pour la modération des réseaux sociaux mais il ne faut pas fantasmer à propos de ces technologies. Les programmes sont capables de repérer des personnes nues parce que c’est facile, par analyse de l’image. En revanche, il est quasiment impossible pour un logiciel de comprendre s’il s’agit d’une vidéo de meurtres réels en direct ou bien d’un film, d’un reportage ou même d’un jeu vidéo.

Les modérateurs humains dépassés

Les réseaux sociaux emploient aussi des modérateurs humains. Mais ils ont beau être environ 30 000 chez Facebook, que peuvent-ils faire face aux torrents de vidéos postées chaque jour sur la plateforme ? Il faut attendre que quelqu’un signale une vidéo pour que celle-ci soit interceptée. C’est ce qui s’est passé avec la vidéo de Christchurch, visionnée 200 fois avant que quelqu’un ne la signale, et c’est finalement la police qui a prévenu Facebook. À partir de cet instant, celle-ci a été bloquée. Il a fallu 17 minutes. Sans prendre la défense de Facebook, on comprend que ce délai qui semble très long est en réalité assez rapide.

Accélérer les signalements

Que pourrait-on faire de plus ? On peut espérer que les algorithmes d’intelligence artificielle s’améliorent, peut-être avec de la reconnaissance de lieux ou de sons. Il faut peut-être aussi améliorer la communication entre les autorités et les plateformes afin que les signalements aillent encore plus vite. Certains suggèrent aussi que Facebook surveille mieux les nouveaux comptes qui se créent parfois juste pour reposter des contenus interdits. En tout cas, une chose est sûre : si un réseau social était contrôlé comme une chaîne de télévision, ce ne serait plus un réseau social.

Des passants viennent se recueillir et déposer des fleurs près de la mosquée Masjid Al Noor où de nombreux fidèles ont été tués à Christchurch (Nouvelle-Zélande), le 19 mars 2019.
Des passants viennent se recueillir et déposer des fleurs près de la mosquée Masjid Al Noor où de nombreux fidèles ont été tués à Christchurch (Nouvelle-Zélande), le 19 mars 2019.(MARTY MELVILLE / AFP)