Instagram, Facebook, Twitter : comment les réseaux sociaux s'arrachent les cheveux au sujet de la liberté d'expression
Les cadres de Twitter ont récemment provoqué la polémique en maintenant en ligne le compte du conspirationniste américain Alex Jones, banni notamment de Facebook et de YouTube. Voici comment les principaux réseaux sociaux traitent ce délicat sujet.
C'était il y a six ans, et cela semble pourtant dater d'une autre époque. Sur la scène de la conférence Changing Media Summit, organisée en mars 2012 à Londres par le quotidien The Guardian, Tony Wang, alors directeur de la branche britannique de Twitter, expliquait que le réseau social pour lequel il travaillait se définissait comme appartenant à "l'aile radicale du parti de la liberté d'expression". Une plateforme neutre, où tout ce qui ne tombait pas sous le coup de la loi avait droit de cité.
En 2018, cette ligne de conduite est de plus en plus contestée. En maintenant en ligne le compte de la star des conspirationnistes américains Alex Jones lundi 6 août, qui avait été quelques heures plus tôt banni de YouTube, Facebook et Spotify notamment, les cadres de Twitter ont provoqué une polémique qui a suscité des remous jusqu'à l'intérieur de l'entreprise.
Qu'il s'agisse de lutte contre les fake news – les fausses informations –, contre le harcèlement ou les propos incitant à la haine, les réseaux sociaux les plus populaires changent peu à peu de politique au sujet de la liberté d'expression. Franceinfo vous explique comment en passant en revue trois d'entre eux : Twitter, Instagram, et Facebook.
Twitter : une lutte contre les "propos déshumanisants" qui vire au casse-tête
Au début des années 2010, un vent grisant entourait l'évocation de Twitter. Le réseau social était présenté comme un bastion de la liberté d'expression dans la lutte contre les pouvoirs autoritaires, notamment dans les soulèvements du printemps arabe de 2011. Au plus fort de la révolte contre Hosni Moubarak, les services de renseignement égyptiens n'avaient-ils pas bloqué le réseau social pour empêcher les protestataires de s'organiser ?
L'air du temps a depuis bien changé. Pour Wired, le début des années 2010 "ressemble dans l'histoire de Twitter à un moment d'idéalisme naïf : la création de jeunes gens qui ne comprenaient pas les ressorts profonds avec lesquels le sexisme, et peut-être même le fascisme, imprègnent l'identité humaine."
A l'époque, les appels pour plus de liberté d'expression venaient de personnes qui voulaient faire tomber des dictateurs. Désormais, ils semblent venir de gens qui réclament le droit de balancer des propos racistes sans être traités de racistes.
le magazine "Wired"à propos de Twitter
Insultes, racisme, appels à la haine... Twitter a été épinglé pour laisser longtemps en ligne des propos pourtant pénalement condamnables, et proscrits par son propre règlement. Une simple recherche suffit pour le constater.
#Complotiste, antisémite, #négationniste, #homophobe, le compte "L'informatrice zélée", qui sévissait sur #Twitter depuis 7 ans et totalisait environ 35 000 abonnés, a été suspendu hier. Quelques heures plus tard, un compte secondaire, en sommeil depuis des années, a été réactivé pic.twitter.com/XUwu5L4Brd
— Conspiracy Watch (@conspiration) 9 août 2018
Twitter a peut-être fait un peu de ménage mais a oublié qqs ordures - @TwitterFrance ça ne vous dérange pas une telle page entièrement antisémite, raciste et homophobe? pic.twitter.com/Asw4Mh2DmM
— Jean-Philippe Cazier (@CazierJP) 1 août 2018
Dites, @TwitterFrance, trouvez-vous normal que cet hebdo fasciste ➡️ @rivarolhebdo, utilise votre réseau en toute impunité pour faire l’apologie du nazisme ? Êtes-vous sûr qu’il répond aux règles de déontologie que vous avez vous même instaurées sur ce réseau ? pic.twitter.com/F2jFNHDgB6
— Claude Demougins ⚪️ (@Claude2mougins) July 16, 2018
Avec le refus du fondateur de Twitter, Jack Dorsey, de bannir de sa plateforme le complotiste Alex Jones, la permissivité du réseau social en matière de liberté d'expression a été critiquée jusqu'au sein même de l'entreprise. Mardi 14 août, un ingénieur chargé de la maintenance des réseaux de Twitter a directement interpellé son PDG sur la plateforme à ce sujet, tout en annonçant se mettre en retrait de son activité sur le réseau social en signe de protestation, rapporte Business Insider (article en anglais).
Nous ne sommes pas un gouvernement. Nous n'avons pas à être neutres. Le sentiment que nous avons fait un choix difficile mais juste en choisissant de rester neutres est une erreur. Notre inaction empêche certains de prendre la parole et handicape les conversations.
Jared Gaut, ingénieur réseau chez Twittersur Twitter
Dans la tourmente, la direction de Twitter a finalement choisi de réagir, mais le chemin semble encore long. Vendredi 10 août, les cadres de l'entreprise ont convié des journalistes du New York Times à une réunion de réflexion autour de ce qui devait être permis ou non sur le réseau social. "La discussion a rapidement tourné autour de la manière dont débarrasser le site des propos 'déshumanisants'", rapportent les deux journalistes. "Mais même définir [cette notion] n'était pas simple. À la fin de la réunion, Jack Dorsey et ses cadres se sont accordés pour rédiger un brouillon de politique sur les propos déshumanisants, et de l'ouvrir aux commentaires du public."
Mercredi 15 août, Jack Dorsey a finalement exercé un mea-culpa dans deux entretiens accordés au Washington Post et à la chaîne de télévision NBC. Il a annoncé que le compte personnel d'Alex Jones allait être interdit de publication durant une semaine, et a promis de plancher sur des solutions techniques pour limiter le harcèlement et la diffusion de fake news sur Twitter. "Je crois que nous avons pris du retard et que nous avons été trop lents pour traiter un certain nombre de problèmes", a-t-il concédé.
Instagram : tolérance zéro envers la méchanceté
Racheté pour la bagatelle d'un milliard de dollars par Facebook en avril 2012 alors qu'il comptait "seulement" 50 millions d'adeptes, le réseau de partage de photos et de vidéos Instagram a dépassé, fin juin, la barre du milliard d'utilisateurs inscrits. Pour atteindre cet objectif, le service n'a pas misé sur une politique permissive en matière de contenu. Au contraire.
Au nom de la promotion d'un "environnement positif, inclusif et sûr", Instagram interdit ainsi la nudité sur sa plateforme, mais également "tout contenu qui comporte des menaces ou des discours haineux", "qui vise des personnes privées dans le but de les humilier ou de les déshonorer", ou encore les attaques ciblant des personnes sur la base de "la race, l’ethnicité, la nationalité, le sexe, le genre, l’identité sexuelle, l’orientation sexuelle, l’affiliation religieuse, le handicap ou l’état pathologique".
Cette ligne de conduite à la fois bienveillante et stricte – d'aucuns diront puritaine – a toujours été celle d'Instagram. Interrogé par le magazine Wired en septembre 2017, le PDG et fondateur du réseau social, Kevin Systrom, avouait que lors des premiers mois d'existence du service, en 2010, il supprimait lui-même les commentaires et bannissait arbitrairement les comptes des utilisateurs "qui n'étaient pas très sympas avec les autres". "Je crois que ça a donné le ton pour indiquer à la communauté que nous souhaitions qu'elle soit aimable et accueillante", se justifiait-il.
À mesure que la popularité d'Instagram a grimpé, il a naturellement été plus délicat pour les équipes de modérer l'ensemble des contenus à la main. Le réseau social s'est donc équipé d'un algorithme entraîné par des ingénieurs, et identique à celui utilisé par Facebook, pour identifier automatiquement les photos et les vidéos qui contreviennent à ses règles d'utilisation. Un cliché montrant un sexe peut ainsi être supprimé en quelques minutes du réseau social sans intervention humaine.
Mais Instagram est allé plus loin. Afin de purger la plateforme des messages indésirables et des commentaires insultants et haineux, le réseau social s'est inspiré du programme DeepText. Ce dernier a été créé par Facebook pour offrir des services utiles à ses utilisateurs en fonction des messages échangés sur Messenger (par exemple, proposer de réserver un taxi directement dans une fenêtre de conversation).
Les équipes d'Instagram ont modifié DeepText pour l'entraîner à identifier le contexte d'un commentaire (émojis compris), analyser l'historique du comportement d'un utilisateur, ainsi que l'étroitesse du lien entre la personne qui commente une photo et celle à l'origine du cliché. Le but : déterminer automatiquement si un commentaire est indésirable ou non.
Si vous utilisez le mot 'nègre' comme une insulte, cela ne passera pas sur notre plateforme. Mais il y a des exceptions : par exemple, si vous l'utilisez pour faire référence à vous-même ou pour raconter une histoire ou une expérience au cours de laquelle vous avez été discriminé.
James Mitchell, directeur des opérations d'Instagramà "Wired"
Chaque commentaire noté reçoit ainsi un score de 0 (le plus innocent) à 1 (le plus outrageant). Déployé fin juin 2017 dans une indifférence quasi-générale, et entraîné par une vingtaine de personnes selon Wired, cet algorithme innovant serait désormais si perfectionné que sa marge d'erreur est quasi-nulle. "Sur cent commentaires supprimés par le programme, seul un aurait été autorisé par un modérateur humain", écrit le rédacteur en chef du magazine. Interrogée sur cette politique radicale, la directrice de la politique publique d'Instagram estimait qu'il s'agissait d'un moyen de garantir une atmosphère apaisée sur le réseau social.
Est-ce que la liberté d'expression signifie pouvoir être méchant envers quelqu'un ? Si la toxicité sur votre plateforme devient telle que les gens n'osent même plus poster un commentaire, ou ne veulent plus partager une idée, alors la seule chose que vous aurez réussi à faire, c'est de menacer l'expression de vos utilisateurs.
Nicky Jackson Colaco, directrice de la politique publique d'Instagramà "Wired"
Facebook : cachez ces "fakes news" que je ne saurais voir
Bien qu'il soit propriétaire d'Instagram, Facebook n'a pour l'heure pas importé son système drastique et automatisé de modération des commentaires. Peut-être faut-il y voir une réminiscence de l'époque de la création de Facebook, en 2005, lorsque la question de la prolifération des messages haineux et des fausses nouvelles n'était pas aussi pressante et que l'entreprise ne se définissait que comme un simple "répertoire en ligne qui connecte les gens via des réseaux sociaux dans les facultés".
Depuis, la société de Mark Zuckerberg a dépassé la barre des deux milliards d'utilisateurs et fait face à des enjeux auxquels elle n'était pas préparée, de l'aveu même de l'un de ses responsables. Parmi ces défis se trouve la manipulation de pages Facebook par des entités étrangères pour diffuser des informations souvent erronées destinées à influencer les électeurs, comme cela a été le cas lors de l'élection présidentielle américaine de 2016.
Facebook a été conçu à l'origine pour vous connecter à vos amis et à votre famille – et il excellait à cela. Mais à mesure que d'innombrables personnes s'y sont investies politiquement, il a été utilisé à des fins inattendues avec des répercussions sociétales qui n'avaient jamais été anticipées.
Samidh Chakrabarti, responsable produit de Facebooksur le blog de l'entreprise
Ebranlé comme jamais par les soupçons d'ingérence russe dans le dernier scrutin présidentiel et par la prolifération des fake news, Facebook a pour autant choisi de ne pas bannir les fausses nouvelles de sa plateforme. Sur le blog de l'entreprise, le vice-président du réseau social en charge du règlement s'en expliquait le 9 août : "Les droits de l'homme donnent le même droit à s'exprimer à ceux qui pensent que la Terre est plate qu'à ceux qui pensent qu'elle est ronde : Facebook fait la même chose (...)."
Le fondateur de Facebook, Mark Zuckerberg, allait même plus loin dans un entretien accordé, en juillet, au site internet Recode : "Je suis juif, et il existe un certain nombre de personnes qui nient le fait que l'Holocauste ait existé. Je trouve cela particulièrement offensant. Mais en fin de compte, je ne crois pas que notre plateforme doive retirer les contenus qui vont dans ce sens, car je pense qu'il y a des choses que différentes personnes comprennent de travers."
Plutôt que de supprimer les fake news, Facebook a préféré en réduire l'exposition grâce à un partenariat avec plusieurs grands médias. "Nos équipes examinent les contenus qui sont les plus distribués à un instant T", explique Chris Cox, directeur de produit pour Facebook, Instagram, Messenger et WhatsApp au magazine Wired. "Si les utilisateurs les signalent comme étant des canulars potentiels, nous les envoyons à des fact-checkers renommés et expérimentés. Si ces derniers nous confirment que ce contenu est probablement faux, alors nous réduirons significativement sa distribution dans le fil d'actualité."
Techniquement, cette baisse d'exposition s'effectue via un algorithme, qui attribue à chaque contenu publié sur Facebook un coefficient de pertinence vis-à-vis de l'utilisateur. Les publications des contacts avec lesquels cet utilisateur interagit régulièrement se voient attribuer un score plus élevé que celles avec les pages émanant d'entreprises, et remontent plus haut sur la page d'accueil du site. Les contenus signalés comme des fakes news, eux, dégringolent dans la hiérarchie. Dans une vidéo, les cadres de l'entreprise justifient cette politique par la volonté de "rendre plus agréable" le temps passé sur Facebook.
Pour exposer encore moins ses utilisateurs aux discussions virulentes qui peuvent alimenter un climat anxiogène, Facebook compte aller plus loin en masquant autant que possible les insultes et autres propos outrageants dans les commentaires des différentes publications. Le réseau social expérimente dans cette optique un système de votes positifs ou négatifs en Australie et en Nouvelle-Zélande, indiquait le Guardian (article en anglais) en mai. Distinct des "j'aime" et des émojis qui permettent de réagir à une publication, ce mécanisme permet aux internautes de valoriser les commentaires constructifs en les faisant remonter en tête de liste, entraînant les réactions toxiques dans les limbes.
Si les fausses nouvelles et les discours virulents sont enterrés mais autorisés sur Facebook, comment expliquer alors la suppression des différentes pages d'Alex Jones ? Selon l'entreprise, cette punition spectaculaire s'explique par une violation répétée du règlement de la plateforme sur les discours haineux et les appels au harcèlement de la part du conspirationniste américain. Mais le New York Times (article en anglais) rapporte que la décision finale, venue de Mark Zuckerberg lui-même, a été grandement influencée par le choix d'Apple de bannir les podcasts du polémiste de son offre.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.