Européennes : comment Facebook tente de lutter contre les "fake news"

Le réseau social a mis en place une "war room" européenne censée lutter contre les fausses informations.

Des salariés de Facebook au sein d\'une war room à Menlo Park en Californie. 
Des salariés de Facebook au sein d'une war room à Menlo Park en Californie.  (JEFF CHIU/AP/SIPA / AP)

Lutter contre les "fake news" avant et pendant les élections européennes qui se tiennent du 23 au 26 mai : tel est l'objectif de Facebook. Le réseau social vient de mettre en place une war room à Dublin (Irlande), où se trouve son siège européen, révèlent plusieurs médias, dont le New York Times (en anglais). Ce n'est pas une première. Facebook a déjà mené trois expérimentations du même type pendant les élections de mi-mandat aux Etats-Unis, puis pour la présidentielle au Brésil et les élections législatives en Inde.

Après deux années noires, le réseau social essaye de se refaire une réputation en mettant en avant son empressement à lutter contre les fausses informations qui circulent lors d'élections d'importance. En janvier, la Commission européenne avait exhorté les géants du web à "intensifier leurs efforts" contre la désinformation en ligne à l'approche des élections européennes. Depuis, la firme multiplie la communication autour de ses outils pour lutter contre les "fake news". Et la réception de Mark Zuckerberg à l'Elysée, vendredi 10 mai, ne semble pas être le fruit du hasard.

Quarante personnes au sein de la cellule

Car Facebook espère frapper fort avec sa war room. Cette cellule de vérification a pour but de traquer les fausses informations qui se propagent sur le réseau social, d’éliminer les faux comptes et les contenus haineux. Désireuse de démontrer son implication dans la lutte contre la désinformation, l'entreprise a invité une vingtaine de journalistes fin avril pour visiter la salle. Une opération de communication qui a duré vingt minutes seulement et dont le New York Times [en anglais] détaille les coulisses.

A l'intérieur de cette pièce, quarante personnes dont des scientifiques, des ingénieurs ou encore des experts en sécurité qui s'activent derrière deux écrans d’ordinateur. Pour des "raisons de sécurité", les photos ont été limitées et il était impossible de s’entretenir avec les employés. Facebook est aussi resté très vague sur les tâches censées être effectuées. "L'équipe est alertée des contenus douteux par un système automatisé qui détecte le contenu problématique, ou lorsque les utilisateurs signalent de plus en plus de contenus", a expliqué Lexi Sturdy, responsable de la cellule spéciale chez Facebook, au New York Times.

L'équipe européenne fonctionne depuis peu de temps et aurait déjà repéré des centaines de comportements suspects liés à des sujets politiques, selon Lexi Sturdy, qui a également répondu au Financial Times [en anglais]. Et avant même la mise en place de cette war room, le réseau social avait interdit l'accès à sa plateforme pour certaines organisations et individus d’extrême droite. Ainsi, la page de Tommy Robinson, fondateur de la English Defence League (EDL), qui a récemment présenté sa candidature pour le Nord-Ouest de l'Angleterre aux élections européennes, a été supprimé, ainsi que son profil Instagram.

Transparence sur les publicités politiques

Parmi les autres actions lancées par Facebook dans le cadre du scrutin européen figure le contrôle des publicités politiques sur le réseau social, à travers Ad Library, la base de données qui référence toutes les publicités diffusées sur les pages du réseau social. Cela passe d’abord par la validation des annonceurs par Facebook. "Nous leur demanderons de soumettre des documents et d'utiliser des contrôles techniques pour confirmer leur identité et leur emplacement", peut-on lire dans leur communiqué.

Toutes les annonces publicitaires concernant la politique devront aussi être étiquetées avec une certification "payée par" éditée par l'annonceur et devant figurer en haut de l’annonce. Objectif : donner à voir qui finance cette annonce ainsi que les coordonnées de l'entreprise ou l'organisation qui paie. Lorsque l'on clique sur l’étiquette, on peut aussi avoir accès à des informations comme le budget de campagne associé à l’annonce, le nombre de personnes qui l’ont vue et leur âge.

Une action encore incomplète 

Si Facebook se montre volontaire, il faut toutefois rappeler que l'éco-système du réseau social est complexe et que la désinformation passe aussi par d'autres canaux. Interrogé par franceinfo, Arnaud Mercier, professeur en communication politique à l'université Paris-II Panthéon-Assas, rappelle que "l'effet de polarisation" de Facebook contribue à favoriser les groupes de paires, à savoir "de gens qui se ressemblent et qui pensent pareil".

Facebook est un éco-système global. Il y a plusieurs mécanismes d’influence possibles.Arnaud Mercier, professeur en communication politiqueà franceinfo

Et derrière les annonces faites par le géant du web, Arnaud Mercier souligne aussi un paradoxe : "Le modèle économique de Facebook dépend tellement du nombre de clics et de partages... La différence de succès de clics et de partages entre les vrais et les fausses informations est telle que lutter de façon efficace et radicale contre les 'fake news' reviendrait pour Facebook à fragiliser son modèle." Autrement dit : "Il faut bien qu'ils donnent des gages, montrent qu'ils font quelque chose... mais pas trop non plus", analyse encore Arnaud Mercier.

L'autre problème concerne l'utilisation de la messagerie chiffrée WhatsApp. Propriété de Facebook depuis 2014, l'application, qui compte plus d'un milliard d'utilisateurs actifs, est un très bon terreau pour la propagation de fausses informations. L'été dernier, en Inde, des rumeurs au sujet d'enlèvements d'enfants ont ainsi provoqué des attaques et même la mort d'une femme. Plus récemment, lors des élections législatives en Espagne, de fausses informations se sont répandues au sein de messages groupés sur WhatsApp, raconte Le Parisien. Et, à ce jour, Facebook n'a pas encore apporté de réponse concrète à ce problème.