Cet article date de plus de six ans.

Nouveau monde. L'intelligence artificielle pour pacifier nos conversations sur internet

Selon une récente étude, deux insultes seraient proférées chaque seconde sur les réseaux sociaux. Comment lutter contre ce phénomène ? L’une des solutions réside peut-être dans l'intelligence artificielle.

Article rédigé par franceinfo, Jérôme Colombain
Radio France
Publié Mis à jour
Temps de lecture : 2min
L'intelligence artificielle : une aide au déconfinement. (Illustration) (MAXPPP)

La haine sur internet peut prendre bien des formes. En attestent certaines conversations qui commencent sans signe d'animosité puis, dégénèrent sur un espace de discussion quelconque. Cela tient parfois à peu de chose : un mot de travers, une idée mal exprimée ou mal comprise… Selon le site The Verge, des chercheurs américains (liens en anglais) de Google et Wikimédia de l’université de Cornell (Ithaca, État de New York) sont en train de mettre au point un logiciel capable de repérer, dans une conversation, les formules susceptibles de l'envenimer.

Presque aussi efficace qu'un humain

Le logiciel a été testé sur un cas bien particulier : sur Wikipédia, et plus particulièrement dans l'espace de discussion où les auteurs des pages de l’encyclopédie échangent pour se mettre s'accorder sur la formulation des articles. Si le logiciel repère des formules de courtoisie comme "Comment allez-vous ?", "Merci pour votre aide", "Je pense que...", le logiciel part du principe que l'échange se déroulera dans de bonnes conditions. Mais s’il détecte des phrases telles que "Pourquoi n'y a-t-il aucune mention de ceci ou cela dans votre article ?", ou des remarques commençant par "you" en anglais ("vous" ou "tu") dans une phrase type "Vos sources ne sont pas mentionnées", alors c’est mauvais signe. Cela signifie que la conversation risque de s’envenimer. Pour arriver à reconnaître les formules négatives, le logiciel s’est entraîné sur des milliers de conversations, comme le veut le principe de l’intelligence artificielle. Ce système serait efficace à 65% contre 72% pour un humain qui tenterait de deviner la même chose. 

Un logiciel à l'état d'expérimentation

Nous n'en sommes qu'au stade des recherches. Mais il est probable qu’un jour, au détour d'une conversation, un système d’alerte nous avertira par des messages comme "Attention, n’écrivez pas comme cela au risque de vous disputer avec cet utilisateur"… Selon les chercheurs, cela indique que nous verrons bientôt apparaître des machines capables de surveiller et de réguler les conversations en ligne. Autrement dit, il est possible que propos soient surveillés, analysés pour s'assurer que tout se passe pour le mieux lors de nos échanges... 

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.