Vrai ou faux Les "community notes" du réseau social X luttent-elles efficacement contre la désinformation ?
Des vidéos commerciales alléchantes, mais déclarées trompeuses. Une élue présentée comme "secrétaire d'Etat en charge des abayas" dans un visuel retouché. Un vidéaste complotiste dénonçant l'inefficacité du masque face au Covid-19. Avec les "community notes" (notes de la communauté), les internautes du réseau social X (ex-Twitter) peuvent apporter des éléments de contexte, voire des corrections dans des encarts apparaissant sous certains tweets jugés trompeurs. Sur le papier, cette fonction collaborative a tout pour plaire.
Le multi-milliardaire Elon Musk, patron d'X depuis presque un an, l'a présenté comme un outil au "potentiel incroyable pour améliorer l'exactitude des informations sur Twitter", lui qui avait promis en parallèle de faire de l'application de microblogging un espace de "liberté d'expression absolue". Qui rédige ces notes et comment se passe leur publication ? Sont-elles vraiment efficaces contre la désinformation ?
Publicités mensongères, "deepfakes" et titres racoleurs
Depuis que les annonceurs grand public ont fui la plateforme, le paysage d'X a changé. Les publicités venant de sites de dropshipping (vente en ligne au cours de laquelle le vendeur ne prend en charge que la commercialisation et la vente du produit) y ont fleuri. Ainsi, leurs pratiques commerciales douteuses sont régulièrement dénoncées : "Il s'agit d'un site de dropshipping qui achète des articles sur AliExpress et les revend à un prix beaucoup plus élevé", indique l'auteur d'une community note, avant de rediriger le lecteur vers l'article original, disponible sur le site chinois d'e-commerce AliExpress.
Sous la publicité pour un jeu vidéo pour mobile, un autre contributeur donne l'alerte : "Cette publicité est une arnaque. L'expérience de jeu est largement différente de ce qui est montré". Les auteurs de notes ont aussi dans leur viseur les images modifiées par l'intelligence artificielle comme les deepfakes (technique reposant sur l'intelligence artificielle qui permet de créer des vidéos et audios ayant l'apparence de la réalité), ainsi que les plagiats de tweets.
Il semble que les auteurs francophones de community notes se passionnent particulièrement pour les médias et les déclarations politiques. Le consultant en sciences des données sociales Florent Lefebvre a analysé près de 190 000 notes mises à disposition par X en source ouverte, dont 3 740 notes en français visant des tweets jugés trompeurs. Il s'agit des notes proposées, qu'elles aient été validées ou non, entre janvier 2021 et fin août 2023.
Parmi les vingt comptes les plus ciblés par ces notes, le média BFMTV arrivait en tête, suivi des agrégateurs de contenus d'actualité amateurs Cerfia, Mediavenir et AlertesInfos. "Ces comptes sont les plus faciles à viser, car [les auteurs] ont le réflexe de remarquer que l'en-tête de l'article ne représente pas ce que dit l'article", estime Florent Lefebvre auprès de franceinfo, faisant allusion aux titres racoleurs employés par ces agrégateurs.
De la gauche ou de la droite, quel bord politique est le plus ciblé ? "Les comptes officiellement 'à gauche' en reçoivent manifestement beaucoup plus. Les cadres importants du Rassemblement national ou de Reconquête sont apparemment moins ciblés, contrairement à LFI ou EELV", remarque le consultant. Les insoumis Mathilde Panot, Jean-Luc Mélenchon et Antoine Léaument figurent en effet dans ce classement. Parmi les comptes classés à droite, seuls ceux de Florian Philippot, président des Patriotes, et de Bruno Attal, l'ex-dirigeant du syndicat France Police, apparaissent. Dans la majorité des cas, ces notes ciblent des comptes "très visibles" et "le plus clivants possible", détaille le consultant.
"Petit acharnement sur Sandrine Rousseau"
Les tweets de la députée EELV Sandrine Rousseau font aussi l'objet d'une attention particulière. "Elle avait 27 notes en attente de validation, pour trois notes définitivement validées. Il y a un petit acharnement sur Sandrine Rousseau", relève Florent Lefebvre. Quand l'élue a fait le rapprochement entre un éboulement en Savoie et le réchauffement climatique dans un tweet, des auteurs se sont empressés de mettre en doute son propos. Les scientifiques remarquent pourtant une accélération des éboulements, multipliés par dix depuis 1970.
L'élue écologiste s'est d'ailleurs plaint de ces notes qu'elle qualifie de "nouvelle forme de harcèlement". Elle a aussitôt reçu une réponse… sous forme de community note. Toutefois, la remise en contexte peut s'avérer utile : lundi 4 septembre, Sandrine Rousseau avait accusé à tort des policiers de contrôler les tenues vestimentaires devant un collège du Vaucluse.
Baptiste Robert, hackeur et chercheur en cybersécurité à Predicta Lab, une société de services numériques, constate toutefois "un détournement" de cette fonctionnalité. Même avant publication, les notes font l'objet de débats houleux entre contributeurs. "Tout cela est illisible et c'est une stratégie assumée. On vient rendre floue la notion de vérité. La note devient un outil pour désinformer et pour faire passer des messages qui ne sont pas la vérité", constate-t-il.
"Maintenant, on a de la désinformation dans les notes qui sont censées contrer la désinformation."
Baptiste Robert, chercheur en cybersécurité à Predicta Labà franceinfo
Alors que l'activiste de Greenpeace Pauline Boyer affiche son inquiétude face au danger du projet d'enfouissement de déchets nucléaires baptisé Cigéo, la note sous son tweet tranche en affirmant qu'il s'agit "d'une solution sûre". Autre exemple : le député insoumis Hadrien Clouet se plaint sur le réseau social d'avoir eu du mal à trouver du Movicol. La note rétorque que le médicament anti-constipation n'est pas en pénurie. Un contributeur anonyme, repéré par franceinfo, s'emploie à attaquer Sandrine Rousseau, à défendre les choix éditoriaux du Journal du dimanche ou encore les vertus du christianisme.
"Il y a des utilisateurs de bonne foi qui traitent les community notes comme Wikipédia (...) Mais l'écrasante majorité de notes incorrectes que je vois viennent de communautés qui essaient de faire du mal, d'induire en erreur ou d'entacher la crédibilité d'une personne", constate Alex Mahadevan, directeur du programme éducatif en ligne de lutte contre la désinformation Mediawise à l'Institut Poynter.
Elon Musk n'est pas à l'origine des community notes. Le programme "Birdwatch" a été lancé en janvier 2021 aux Etats-Unis par l'équipe de Twitter. Après le rachat de la plateforme par le milliardaire, il a pris son nom actuel en novembre 2022. Depuis, le programme a été déployé en juin 2023 dans plus de 15 pays, dont la France, et regroupe près de 133 000 utilisateurs, estime Alex Mahadevan.
Pas d'intervention humaine dans le choix des publications
Comment fonctionne ce système ? Basé sur la collaboration de bénévoles anonymes, il rappelle le fonctionnement de Wikipédia. Presque n'importe qui peut devenir contributeur, puisqu'il suffit de réunir les conditions suivantes, selon X : avoir un numéro de téléphone valide, être inscrit sur le réseau depuis au moins six mois et ne pas en avoir enfreint les règles récemment. N'importe quel tweet peut faire l'objet d'une note. L'utilité de celle-ci est ensuite évaluée par d'autres contributeurs sous forme de vote. "Les notes ne sont affichées sur les posts que si elles sont jugées utiles par suffisamment de personnes ayant des points de vue différents", garantit la plateforme.
Derrière le choix de publication des notes, aucune intervention humaine. La plateforme laisse à un algorithme "de notation" le soin de faire le tri. Plus une note reçoit le soutien de personnes qui ont été en désaccord par le passé, plus elle a de chances d'être publiée.
"L'algorithme préfère les opinions de gens qui ne se connaissent pas, mais qui vont être d'accord sur un sujet."
Florent Lefebvre, consultant en sciences des données socialesà franceinfo
Vitalik Buterin, fondateur de la cryptomonnaie Ethereum, en a fait les louanges sur son blog : "[L'algorithme] n'est pas parfait, mais il est étonnamment proche de satisfaire l'idéal d'une neutralité crédible, tout en étant incroyablement utile, même dans des conditions controversées." L'informaticien voit dans les community notes le fer de lance de "ces mécanismes qui cherchent délibérément à identifier la polarisation, et à favoriser le rapprochement plutôt que de perpétuer les divisions".
"Un champ de bataille"
Pour Alex Mahadevan, de l'institut Poynter, l'algorithme a montré ses limites, au point d'empêcher les notes correctes d'émerger. "C'est en train de devenir un champ de bataille. Chaque fois qu'Elon Musk fait un tweet qui est faux, et cela arrive très souvent, quelqu'un essaie de le fact-checker [avec community notes]. Vous verrez alors des dizaines et des dizaines de personnes qui viendront dire : non, il a raison, voilà pourquoi. Une bataille a lieu, et la note ne peut pas émerger", constate-t-il.
Près de 10% des notes soumises sont validées définitivement, selon Alex Mahadevan. Pour lui, ce faible ratio s'explique par un clivage politique au sein des utilisateurs. Le système de fact-checking collaboratif "ne marche pas si vous demandez un consensus politique sur ce que sont les faits. La gauche et la droite ne peuvent pas se mettre d'accord sur ce qu'est un fait", résume-t-il. "Si vous avez 100 personnes qui adorent Elon Musk et 100 personnes qui essaient de le fact-checker, la note n'apparaîtra pas", illustre le journaliste spécialiste de la lutte contre la désinformation.
Fin août, X a annoncé une série d'améliorations dans son système de modération des community notes. Celui-ci fait remonter des notes prometteuses et récentes pour les soumettre à évaluation des utilisateurs, afin d'en accélérer la publication. Autre changement : les notes sur les tweets contenant des images ou des vidéos apparaîtront automatiquement sur d'autres publications avec les mêmes contenus, détaille X. Le réseau annonce aussi avoir amélioré son algorithme de notation afin de mieux identifier les notes incorrectes et d'empêcher les notes d'apparaître et de disparaître au fur et à mesure que leur notation évolue.
Mais cela ne résout pas un problème majeur, selon Alex Mahadevan : l'absence de modération humaine. Peut-on vraiment déléguer l'arbitrage de la vérité à une IA ? "Un algorithme automatisé, ça ne fera jamais le boulot complètement. On ne pourra pas avoir le discernement humain, admet Baptiste Robert. Mais la modération humaine ne peut pas non plus être une solution pour un million de personnes qui vont utiliser un service. Même si le coût du travail était gratuit, ce ne serait pas possible, car les cultures et les langues sont différentes".
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.