On vous explique l'affaire des réseaux pédophiles qui agite YouTube

Un blogueur américain pointe du doigt l'algorithme de la plateforme, qui faciliterait la formation de communautés de pédophiles autour de vidéos d'enfants. 

Le blogueur Matt Watson dénonce les réseaux de pédophiles qui sévissent sur YouTube dans une vidéo diffusée le 17 février 2019. 
Le blogueur Matt Watson dénonce les réseaux de pédophiles qui sévissent sur YouTube dans une vidéo diffusée le 17 février 2019.  (JAAP ARRIENS / NURPHOTO / AFP)

C'est un recoin de YouTube bien moins gai que celui des vidéos de chats. Dimanche 17 février, un blogueur américain a dénoncé les commentaires déplacés et sexualisants de certains internautes sur des vidéos d'enfants diffusées sur la plateforme et partagées en masse. Après le boycott de plusieurs annonceurs, YouTube a assuré avoir retiré des millions de commentaires et supprimé des comptes visiblement utilisés par des pédophiles. On vous résume cette affaire.

Il y a vraiment des vidéos pédophiles sur YouTube ?

Ce ne sont pas des vidéos pédopornographiques, mais des séquences a priori tout à fait inoffensives : par exemple, des enfants faisant de la gymnastique ou une chorégraphie. Mais, selon le blogueur Matt Watson, ces vidéos intéressent des internautes pédophiles. D'après lui, ces utilisateurs utilisent notamment les commentaires sous ces vidéos pour identifier et se transmettre des contenus. 

Dans cet espace, les pédophiles laissent des indicateurs temporels pour retrouver facilement des poses qu'ils jugent suggestives, demandent si les enfants portent des sous-vêtements, le tout accompagné d'émojis explicitement sexuels. Ces utilisateurs parviennent ainsi à contourner les interdictions de YouTube à propos de la pédopornographie et à créer une sorte de réseau de pédophiles.

Pourquoi l'algorithme de YouTube est-il mis en cause ?  

Une fois une vidéo visionnée, l'algorithme de YouTube fait des propositions menant au même type de contenus, là encore mettant en scène des enfants. "L'algorithme de recommandation qu'utilise YouTube facilite la capacité des pédophiles à se connecter les uns aux autres, à se transmettre des informations et à insérer des liens vers des points de contact réels dans les commentaires", avance le blogueur Matt Watson. 

"Si dans la miniature [de la vidéo] on voit un grand écart ou un justaucorps, la vidéo explose le nombre de vues", expliquait en juin dernier à Ouest France Le Roi des Rats, un youtubeur spécialisé dans les dérives d’internet qui alertait déjà sur la formation de ces réseaux. 

Comment le site a-t-il réagi ?

En réaction à ces révélations, plusieurs marques ont décidé de retirer leurs publicités de YouTube, selon la presse américaine : c'est le cas du groupe Epic Games (qui édite le jeu à succès Fortnite), de Nestlé, Disney ou de l'opérateur télécoms AT&T.

Pour endiguer le boycott de ses annonceurs, YouTube a assuré avoir "immédiatement pris les mesures correspondantes, en supprimant des chaînes et des comptes, en signalant toute activité illégale aux autorités et en désactivant les commentaires sur des dizaines de millions de vidéos incluant des mineurs", selon un porte-parole.

La plateforme ajoute avoir pris des mesures "au-delà de ce qui avait été signalé", en supprimant des milliers de commentaires inappropriés, en signalant les commentaires illégaux au Centre national pour les enfants disparus et exploités et en supprimant "des dizaines de vidéos mises en ligne avec des intentions légitimes mais mettant clairement des mineurs en danger".

Est-ce une première ?

En novembre 2017, YouTube avait déjà effacé des dizaines de milliers de vidéos d'enfants qui s'accompagnaient de commentaires au ton très déplacé, voire à caractère pédophile. Là encore, la plateforme tentait de rassurer des annonceurs inquiets, dont certains avaient décidé de retirer leurs pubs.

"Nous avons des politiques claires contre les vidéos et les commentaires sur YouTube qui sexualisent ou exploitent les enfants et nous les appliquons de manière drastique à chaque fois que nous sommes alertés sur un tel contenu", avait alors assuré un porte-parole de YouTube.

Quelques mois plus tôt, plusieurs grands annonceurs, dont Procter&Gamble et AT&T, avaient déjà retiré leurs campagnes de YouTube, quand il était apparu que des publicités étaient adossées à des contenus antisémites, incitant à la haine ou faisant l'apologie du terrorisme. Le scandale avait fait surgir des débats sur la brand safety, c'est-à-dire la nécessité pour les marques d'éviter que leurs publicités ne figurent dans un environnement inapproprié.