Vidéo de l'attaque d'une mosquée à Christchurch : pourquoi Facebook est pointé du doigt
Les réseaux sociaux sont sommés de s'expliquer sur la lenteur de réaction de leur système de modération après la diffusion de la vidéo du terroriste.
Il descend de sa voiture, une arme à la main, remonte le trottoir, se dirige droit vers la porte ouverte de la mosquée al-Nour. L'image rappelle étonnamment une scène de jeu vidéo à la première personne. Un homme sort du lieu de culte. Le cameraman, dont l'objectif est fixé à hauteur de poitrine, ouvre le feu. Un mort. Puis un autre…
Brenton Tarrant a diffusé en direct sur Facebook l'attentat qu'il a perpétré à Christchurch, vendredi 15 mars, faisant 50 morts dans cette ville de Nouvelle-Zélande. Une séquence visible sur son compte Facebook qui a ensuite été dupliquée des milliers de fois sur la plateforme et sur d'autres sites et réseaux sociaux, avant que les géants du web n'interviennent pour la supprimer et tenter d'endiguer sa diffusion. De nombreux élus et associations à travers le monde se sont indignés de cette situation. En France, une plainte a été déposée, lundi 25 mars, contre Facebook mais aussi YouTube, par le Conseil français du culte musulman (CFCM), qui estime que les plateformes n'ont pas réagi assez vite.
Qu'est-il reproché à Facebook ?
La séquence diffusée par Brenton Tarrant est restée en ligne plus d'une demi-heure sur le compte du terroriste d'extrême droite. Une durée qui a paru une éternité et qui a permis aux internautes non seulement de visionner les images mais aussi de les partager et de les enregistrer pour les diffuser sur d'autres plateformes : YouTube, Twitter ou le forum 8chan (réputé pour son extrémisme), par exemple.
Facebook est pointé du doigt pour ne pas avoir agi assez vite et pour ne pas disposer d'outils de modération permettant d'éviter la diffusion à grande échelle de ce genre de contenus violents. De nombreux élus américains, républicains comme démocrates, ont reproché aux géants du web leur gestion "trop laxiste" des messages de haine publiés en ligne et de la violence qu'ils engendrent, explique le Washington Post.
Le Conseil français du culte musulman, qui porte plainte en France, poursuit Facebook et YouTube pour "diffusion de message à caractère violent incitant au terrorisme ou de nature à porter gravement atteinte à la dignité humaine susceptible d'être vu ou perçu par un mineur".
Que répond le réseau social ?
Mis à l'amende, Facebook a publié un message (en anglais), lundi 18 mars, revenant sur la chronologie des faits et sur ses actions. La firme de Mark Zuckerberg explique que la vidéo a été vue "moins de 200 fois" pendant sa transmission live, qui a duré 17 minutes. Au total, elle a été visionnée 4 000 fois avant sa suppression, plus d'une demi-heure après le début du live.
Le réseau social indique que le premier signalement du contenu par un internaute n'est intervenu qu'au bout de 29 minutes, c'est-à-dire 12 minutes après la fin de la diffusion en direct. C'est à partir de ce signalement que la vidéo a été effacée puis que les comptes Facebook et Instagram (qui appartient au même groupe) de Brenton Tarrant ont été supprimés.
Facebook explique qu'un internaute avait posté, entre-temps, un lien de téléchargement de la vidéo sur le site 8chan, provoquant la diffusion incontrôlée de la séquence. Une fois repérée, la vidéo a été traitée par le réseau social de manière à être immédiatement reconnue en cas de nouvelle tentative de publication. L'entreprise affirme ainsi avoir supprimé 1,5 million de copies et avoir empêché la publication de 1,2 million d'autres en 24 heures.
In the first 24 hours we removed 1.5 million videos of the attack globally, of which over 1.2 million were blocked at upload...
— Facebook Newsroom (@fbnewsroom) 17 mars 2019
Dans un second communiqué, mercredi 20 mars, Facebook a reconnu que son système de modération basée sur l'intelligence artificielle n'était "pas parfait" et qu'il n'avait pas permis de "détecter automatiquement" la vidéo de l'attaque parce qu'il n'est pas assez "entraîné" à travailler sur ce genre de contenus. Contrairement à la nudité ou à la propagande terroriste, pour lesquels les exemples sont nombreux, Facebook explique que sur ce type de vidéo violente, la matière est plus rare pour entraîner ses algorithmes.
Donc il y a bien un problème dans le système de modération ?
Pour Karim Amellal, délégué général de l'association Civic Fab et coauteur du rapport contre les contenus haineux en ligne remis en septembre 2018 au Premier ministre, il y a eu une "faille" de Facebook, d'où est partie la vidéo. "Elle aurait dû être détectée comme le sont en grande partie toutes les vidéos comportant des actes de suicide, explique cet enseignant à Sciences Po Paris. Facebook a des algorithmes qui permettent de détecter lorsqu'une personne se fait tuer ou se blesse, mais là, ça n'a pas marché."
Le système est conçu pour prioriser ces vidéos. "La vidéo ou le contenu en question est envoyé à des modérateurs qui examinent et disent si le contenu est à supprimer ou non", poursuit Karim Amellal. D'ailleurs, l'entreprise américaine a récemment annoncé avoir "augmenté la taille de [ses] équipes de sécurité et de sûreté", comprenant aujourd'hui "plus de 30 000 personnes dédiées à la modération du contenu".
"La responsabilité de Facebook est claire, commente Karim Amellal. C'est à travers la plateforme que l'attentat a été filmé et que la vidéo s'est retrouvée sur internet." Selon l'enseignant, l'entreprise est désormais décidée à "intensifier sa lutte contre les contenus de ce type". Il en va de sa réputation.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.