Au Japon, un projet d’application pour décourager les prédateurs sexuels sur Internet
Grâce à l'intelligence artificielle, l'application Kodomamo va repérer dans votre bibliothèque de photos et dans les archives de vos réseaux sociaux, toutes les contenus graphiques susceptibles d’impliquer de la nudité pour ensuite les effacer.
Comment mieux protéger les enfants qui passent, chaque semaine, des heures en ligne sur des réseaux sociaux, que leurs parents ne comprennent pas toujours ? Au Japon, les autorités de la préfecture d’Aichi, autour de la ville de Nagoya, viennent de mobiliser plusieurs entreprises pour tenter de concevoir une application qui pourrait servir de sorte de filtre universel et empêcherait les jeunes utilisateurs d’échanger n’importe quoi sur leurs téléphones. Elles s’inquiètent en effet depuis longtemps de l’envolée du nombre de délits impliquant, chaque année, l’exploitation des enfants.
Il s’agit essentiellement d’adultes qui trainent sur les réseaux sociaux, en trichant sur leur identité et qui réussissent à force de messages à convaincre des ados de leur envoyer des photos d’eux, et très souvent ce sont des clichés très dénudés. C’est un problème que l’on retrouve dans le monde entier. D’après les dernières statistiques de l’Agence nationale de la police japonaise, 514 mineurs ont été victimes de ce genre de pornographie dans le pays l’an dernier. C’est deux fois plus qu’il y a dix ans. Ce sont pour l’essentiel des collégiens ou des lycéens qui se font piéger.
L’appli efface les photos qui impliquent de la nudité
Aussi, pour protéger les enfants, les autorités locales ont réuni l’an dernier autour de la table des policiers qui enquêtent sur ces affaires, des professeurs de l’université Fujita et les représentants de Smartbooks, une entreprise qui conçoit des applications pour smartphones. Ensemble, ils ont mis au point une application qui est, pour l’instant, baptisée "kodo mamo", un mot portefeuille qui associe "kodomo", qui veut dire "enfant" en japonais et "mamoru", "protéger". Cette application peut être installée sur n’importe quel téléphone et elle va servir, en quelque sorte, de filtre de contenus.
Avec de l’intelligence artificielle, elle va repérer dans votre bibliothèque de photos et dans les archives de vos réseaux sociaux, toutes les images qui sont susceptibles d’impliquer de la nudité. Elle repère les parties génitales, les poitrines et même les clichés de sous-vêtements. Pour ensuite automatiquement les effacer.
Les jeunes la trouvent un peu trop conservatrice
Kodomamo est encore en phase de test et ses concepteurs échangent avec les enfants qui ont commencé à l’utiliser. Il n’y a pas de rejet mais les jeunes trouvent que l’app est un peu trop conservatrice. Et pour cause : l’intelligence artificielle a parfois un peu de mal à faire le tri dans certaines images. Par exemple, des images classiques de maillot de bain. On efface ou on garde ? Les concepteurs planchent donc sur un système d’alerte aux parents. Ils pourraient être appelés à trancher. En cas de problème, ils reçoivent un message automatique. Et ils répondent : "Oui, j’autorise mon enfant à avoir cette image", ou "Non, je ne suis pas d’accord". Cette solution plait beaucoup aux parents, encore faut-il maintenant convaincre les ados d’accepter de télécharger la nouvelle application. Ce ne sera, de toute évidence, pas le plus facile.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.