Lutte contre la haine en ligne : "Il faut des équipes de modération en français parce que c'est un problème d'interprétation", plaide l'universitaire Sophie Jehel

"Ce qui pose problème, c'est qu'on a des plateformes numériques qui sont des plateformes commerciales, étasuniennes, développe-t-elle. Les algorithmes ne perçoivent pas bien le contexte. Donc, il faut des francophones qui connaissent la culture, qui connaissent notre désir, en France, de lutter contre l'antisémitisme, contre la misogynie, contre les racismes, contre l'homophobie".

Article rédigé par
Radio France
Publié Mis à jour
Temps de lecture : 3 min.
Comment détecter les messages violents sur les réseaux sociaux ? (photo d'illustration) (PHOTOPQR / NICE MATIN / MAXPPP)

Les patrons des grands réseaux sociaux (Facebook, Twitter, Google, TikTok et Snapchat) sont convoqués mardi 20 octobre par la ministre déléguée à la Citoyenneté, Marlène Schiappa, pour trouver des moyens de mieux contrer "le cyber-islamisme", après l'assassinat d'un professeur d'histoire à Conflans-Sainte-Honorine (Yvelines) vendredi dernier. "Il faut des équipes de modération plus nombreuses" et "francophones" sur les plateformes numériques, a plaidé sur franceinfo Sophie Jehel, maîtresse de conférences à l’Université Paris 8, co-autrice de l'ouvrage Les adolescents face aux images trash sur internet (2019). "Tout le problème de la haine, c'est un problème d'interprétation, de contextualisation. Les algorithmes qui fonctionnent de façon robotique ne perçoivent pas bien le contexte. Donc, il faut des humains, il faut des Français", a expliqué Sophie Jehel.

>> Professeur assassiné : suivez les évolutions de l'enquête dans notre direct

franceinfo : D'abord, de quoi accuse-t-on les réseaux sociaux dans cette affaire particulièrement ?

Sophie Jehel : Dans cette affaire, comme dans d'autres, on sait que le modèle d'affaires des réseaux sociaux repose sur les messages qui sont les plus retweetés, les plus partagés, les plus likés, etc. Donc, ils jouent sur les émotions fortes, sur les colères, les indignations, les désignations de boucs émissaires. Ça fait partie de leur modèle d'affaires, donc ils les rediffusent davantage.

Et la frontière est parfois ténue entre ces colères que vous évoquez et des appels à la violence qui sont illégaux ?

Dès lors que sont identifiées des incitations à la haine très directes, avec des menaces de mort, à ce moment-là, il peut y avoir des signalements. Et les plateformes numériques vont être obligées de retirer des messages qui leur sont signalés. Mais effectivement, tout ce halo de haine, qui n'est pas nécessairement un appel au meurtre direct, tout cela peut passer dans les mailles du filet. D'autant plus que le gros problème, c'est que personne ne sait exactement comment fonctionne la modération sur les plateformes numériques.

Toute la difficulté, c'est de faire ce travail tout en respectant la liberté d'expression ?

Oui, parce que comme la modération, c'est-à-dire la censure qui est exercée par les plateformes numériques, est complètement opaque, renforcer la demande de censure pose problème par rapport à la liberté d'expression. Mais, au fond, ce qui pose problème, c'est qu'on a des plateformes numériques qui sont des plateformes commerciales, étasuniennes, qui ont donc des règles et des modes de pensée qui sont différents de ceux de l'Europe et qui appliquent donc les règles à leur façon.

Quelle est la différence entre la liberté d'expression "à l'américaine" et celle que nous pratiquons en France ?

Elle est moins contrainte aux États-Unis, et tout ce qui est lié à l'incitation à la haine raciale, notamment à l'antisémitisme, est considéré comme éventuellement pouvant faire partie de la liberté d'expression. Mais ensuite, il y a une interprétation qui est donnée par les CGU, c'est-à-dire les conditions générales d'utilisation des plateformes. 

Ce qu'elles font appliquer sur leurs espaces numériques, qui sont aussi des espaces publics – et c'est tout le problème – c'est leur propre loi privée. Et tant qu'on n'arrive pas à obtenir que les pouvoirs publics européens aient accès au fonctionnement des algorithmes et aux règles qui sont imposées à l'intérieur des algorithmes, on n'y arrivera pas. 

Sophie Jehel, maîtresse de conférences à l’Université Paris 8

à franceinfo

Attendez-vous quelque chose de ce rendez-vous des patrons français des réseaux sociaux au ministère de l'Intérieur ?

Oui, je crois qu'il faut attendre plus de vigilance. Le point où on pourrait obtenir quelque chose, c'est que les équipes de modération de ces plateformes soient plus nombreuses. Obtenir aussi qu'il y ait des équipes de modération en français, par exemple, parce que tout le problème de la haine, c'est un problème d'interprétation, de contextualisation. Les algorithmes qui fonctionnent de façon robotique ne perçoivent pas bien le contexte. Donc, il faut des humains, il faut des Français ou des francophones qui connaissent la culture, qui connaissent notre désir, en France, de lutter contre l'antisémitisme, contre la misogynie, contre les racismes, contre l'homophobie.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.