Cet article date de plus de quatre ans.

Présidentielle américaine : Facebook, Google et Twitter ont-ils tiré les leçons de 2016 pour lutter contre la désinformation ?

Article rédigé par Vincent Matalon
France Télévisions
Publié
Temps de lecture : 10min
Le fondateur de Facebook, Mark Zuckerberg, lors d'une conférence organisée le 25 octobre 2019 à New York (Etats-Unis). (DREW ANGERER / GETTY IMAGES NORTH AMERICA / AFP)

Pointés du doigt pour leur laxisme face à la propagation de "fake news", lors de la campagne qui a conduit Donald Trump à la Maison Blanche, les géants du web ont révisé leur politique.

La scène n'a que quatre ans, mais, à la veille de l'élection présidentielle américaine du 3 novembre, elle semble dater d'un autre siècle. Invité à réagir au résultat du scrutin remporté par Donald Trump face à Hillary Clinton, en novembre 2016, Mark Zuckerberg avait jugé "assez folle" l'idée que Facebook ait pu peser sur l'élection.

Un an et demi plus tard, le ton avait déjà changé. La voix incertaine, le fondateur du tentaculaire réseau social reconnaissait, devant les parlementaires américains, n'avoir pas pris la mesure de ses responsabilités. "C'était mon erreur et je suis désolé", déclarait-il, en avril 2018. Un mea-culpa lié au scandale Cambridge Analytica, au cours duquel les données personnelles de 87 millions d'utilisateurs de Facebook se sont retrouvées – sans leur consentement – entre les mains d'une firme ayant travaillé pour la campagne de Donald Trump.

Les excuses de Mark Zuckerberg auraient aussi pu valoir pour la diffusion de fausses nouvelles et les soupçons d'ingérence russe dans les semaines qui ont précédé le scrutin, et qui ont concerné toutes les grandes plateformes sociales du web. Quatre ans après ces scandales, Google, Twitter et Facebook ont-ils évolué ? Éléments de réponse.

Des publicités politiques mieux encadrées

Souvent cité comme premier responsable des abus constatés pendant la campagne de 2016, Facebook assure avoir revu en profondeur son règlement en matière de diffusion de publicités politiques ciblées. "Facebook a fait preuve d'un réel souci de transparence après le scandale Cambridge Analytica", confirme à franceinfo Olivier Ertzscheid, maître de conférences en sciences de l'information à l'université de Nantes. Parmi les avancées remarquables, il relève l'interdiction du financement des publicités politiques par des comptes ou des devises étrangères, ou encore la mise à disposition d'une base de données qui permet d'identifier la source du financement de n'importe quelle publicité, y compris électorale.

Exemples de publicités mentionnant le candidat démocrate Joe Biden issues de la "bibliothèque publicitaire" mise en place par Facebook. Les financeurs de ces messages sont clairement identifiés. (FACEBOOK)

Le géant des réseaux sociaux a également fait savoir début septembre qu'aucune nouvelle publicité politique ne pourrait être diffusée pendant la semaine précédant l'élection.

Twitter a pris pour sa part une décision radicale à l'automne 2019 : interdire purement et simplement aux candidats de mettre en avant des messages politiques sur sa plateforme en mettant la main à la poche. "Nous pensons que la portée d'un message politique doit se mériter, pas s'acheter, écrivait fin octobre 2019 Jack Dorsey, fondateur de Twitter. Un message politique gagne en audience quand des utilisateurs décident de s'abonner au compte de celui qui l'émet, ou en le partageant directement. Payer pour obtenir de l'audience supprime ces actions et impose aux gens des messages politiques parfaitement ciblés."

Les internautes incités à "vérifier les faits"

Depuis, le réseau a franchi un cap. Au nom de la lutte contre la désinformation, Twitter a multiplié lors des derniers mois les avertissements invitant les internautes à "vérifier les faits" accolés à plusieurs messages de Donald Trump sur le vote par correspondance, par exemple. Le réseau social est allé jusqu'à en masquer un autre concernant les affrontements de Minneapolis après la mort de George Floyd pour signaler une "apologie de la violence".

Confronté aux outrances et approximations de Donald Trump, Facebook a aussi changé d'attitude au fil des mois. Facebook a choisi "une politique plus ambivalente, explique Olivier Ertzscheid, puisque Mark Zuckerberg a longtemps refusé de modérer les propos tenus par les politiques sur son réseau pour ne pas se poser en arbitre de la vérité".

Facebook s'est tout de même résolu à retirer plusieurs publications dans lesquelles Donald Trump minimisait les risques liés au nouveau coronavirus. De quoi fâcher le locataire de la Maison Blanche, qui a accusé les plateformes numériques de censure et a appelé à un changement de la loi qui régit leur marge de manœuvre en termes de modération des contenus, comme l'explique Numerama.

Les vidéos conspirationnistes moins diffusées

L'élection américaine de 2016 avait également été marquée par une prolifération de théories du complot visant le plus souvent Hillary Clinton. La plus célèbre reste celle du "PizzaGate", histoire à dormir debout selon laquelle la candidate démocrate et son directeur de campagne auraient dirigé un réseau pédophile depuis une pizzeria de Washington. La même recette est aujourd'hui utilisée contre le fils de Joe Biden, Hunter, dans le but d'affaiblir la candidature de son père, comme l'explique Vice.

Ancien salarié de Google, chargé jusqu'en 2013 de développer l'algorithme de recommandations de YouTube, Guillaume Chaslot raconte à franceinfo que la plateforme avait alors tendance à promouvoir les contenus conspirationnistes. "L'algorithme de recommandation avait un objectif : augmenter le temps de visionnage des utilisateurs, ce qui permet de leur montrer le plus de publicité possible pour augmenter les revenus de YouTube", détaille le chercheur français.

Avec leurs vignettes sulfureuses et leurs promesses de révéler des scandales, les vidéos conspirationnistes étaient ainsi regardées plus longtemps que les autres, et donc naturellement mises en avant par YouTube, poursuit le spécialiste, dont l'étude sur le sujet avait été relayée par le New York Times.

En 2016, à partir d'une simple recherche sur Donald Trump, il était très facile de tomber dans un 'rabbit hole' [une spirale] de vidéos conspirationnistes sur YouTube.

Guillaume Chaslot, ancien salarié de Google

à franceinfo

Conscientes de cet effet, les équipes de YouTube ont annoncé avoir procédé en 2019 à trente modifications de l'algorithme de recommandations de vidéos. "D'après nos constatations, ces changements ont fait baisser de 50 et 70% le nombre de théories du complot mises en avant", ajoute l'ex-employé de Google, qui a fondé Algotransparency, un programme destiné à aider les internautes à mieux comprendre les recommandations de YouTube.

Un changement de politique très critiqué

Cet interventionnisme récent soulève des critiques, en cette année électorale américaine. Twitter et Facebook l'ont éprouvé, mi-octobre, lorsqu'ils ont limité le partage d'un article controversé du New York Post. Le quotidien avait publié des e-mails qui auraient été obtenus illégalement sur un ordinateur contenant des messages, photos et vidéos personnelles de Hunter Biden. Cet article prétendait démontrer la connivence entre Joe Biden et un groupe gazier ukrainien, avec lequel son fils avait travaillé. La publication de documents confidentiels dont la véracité est mise en doute rappelle l'affaire qui avait visé Hillary Clinton en 2016, lorsque des e-mails piratés par des hackers russes avaient été diffusés par des sites anonymes et par WikiLeaks.

Avant de revenir sur sa décision, Twitter a justifié son choix par la présence, dans l'article, d'éléments d'ordre privé (adresses e-mail, numéros de téléphone) et de contenus piratés, dont la diffusion est interdite par la plateforme. Facebook avait de son côté expliqué que les informations allaient faire l'objet d'une vérification. En empêchant la diffusion de cet article sulfureux, les deux géants se sont attiré les foudres de Donald Trump et de ses proches, qui les ont accusés d'outrepasser leur rôle et de chercher à favoriser son adversaire démocrate.

Cet exemple démontre parfaitement à quel point les réseaux sociaux sont aujourd'hui sur une ligne de crête.

Olivier Ertzscheid, maître de conférences en sciences de l'information

à franceinfo

Pour Olivier Erztscheid, lorsqu'elles ne modèrent rien, les plateformes "s'exposent à devoir assumer le fait d'être utilisées pour des opérations de déstabilisation électorale". A l'inverse, dès qu'elles interviennent, "elles sont sommées de prouver leur impartialité en modérant tous les camps de la même manière".

Ce problème, a priori inextricable, est lié à la nature même de ces entreprises, estime le spécialiste. "Ces réseaux génèrent une grande confusion dans nos démocraties : en étant des espaces politiques et médiatiques qui touchent l'opinion, ils jouent incontestablement un rôle d'espace public, mais en édictant leurs propres règlements et conditions d'utilisation, que leurs utilisateurs doivent respecter, ils restent, quoi qu'on en dise, un espace privé."

Les "fake news" toujours échangées en privé ?

Même si les réseaux sociaux parviennent à endiguer la prolifération de fausses nouvelles, le chercheur redoute que les utilisateurs continuent de les partager sur des canaux moins visibles, comme les messageries WhatsApp ou Messenger.

Cela sera-t-il le cas dès le 3 novembre, au soir de l'élection américaine ? Les plateformes redoutent une circulation accrue d'informations fallacieuses. Facebook, Twitter et YouTube évoquent l'hypothèse d'un scrutin très serré avec des résultats officiels qui tarderaient à tomber, en raison du recours important au vote par correspondance cette année. "Si un candidat ou un parti annonce sa victoire de façon prématurée, nous ajouterons des notifications indiquant que le décompte des votes est toujours en cours et que le vainqueur n'a pas encore été déterminé", a prévenu Guy Rosen, un des vice-présidents de Facebook.

Enfin, Facebook annonçait début octobre qu'il retirerait certains contenus, comme les appels à venir observer les élections dans les bureaux de vote "quand ils seront formulés avec des termes militaires ou quand ils suggèrent l'idée d'intimider les agents électoraux ou les électeurs". Des retraits de contenus pourraient aussi intervenir en cas de violences post-électorales, prévient la plateforme, prête à tous les scénarios.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.