Cet article date de plus d'un an.

Débattre avec un chatbot marxiste, une infirmière virtuelle ou notre "enfant intérieur"... On a discuté avec trois intelligences artificielles insolites

Article rédigé par Valentine Joubin
Radio France
Publié Mis à jour
Temps de lecture : 7 min
Inner child, ChatCGT et Nurse Nisa, trois expériences avec des robots conversationnels  à base d'IA. (FRANCEINFO)
ChatGPT, l'assistant conversationnel de la société OpenAI aux millions d'utilisateurs, est loin d'être le seul robot prêt à répondre à nos questions les plus incongrues. Voici trois exemples d'intelligence artificielle dans des domaines inattendus.

Un outil créatif révolutionnaire pour les uns, une arme pouvant alimenter les théories du complot et destructrice d'emploi selon les autres... ChatGPT, le robot conversationnel créé par la société américaine OpenAI en novembre, suscite à la fois un grand enthousiasme et une méfiance certaine. En termes de création musicale, le chanteur Nick Cave estime carrément que c'est "de la merde."

>> ChatGPT : l'intelligence artificielle au service du complotisme ?

L'assistant a attiré plusieurs millions d'utilisateurs en quelques jours mais aussi les convoitises d'un géant de la tech. Microsoft a en effet annoncé, lundi 23 janvier, un partenariat de "plusieurs milliards de dollars" avec OpenAI. Bien plus modestement, d'autres robots créés par de simples citoyens ont vu le jour ces derniers mois. Voici trois exemples d'intelligence artificielle appliquée à des domaines surprenants.

ChatCGT, l'intelligence artificielle marxiste et satirique

"Elle est vénère, elle aime pas Macron, c'est ChatCGT". Voici comment Vincent Flibustier présente son robot conversationnel d'extrême gauche ou "IA marxiste", lancé dans le contexte du mouvement d'opposition à la réforme des retraites. Le rouge, blanc et jaune du logo de la Confédération générale du travail sont bien là mais en réalité, le syndicat n'y est pour rien. C'est de sa propre initiative et avec l'aide de son frère – "ce génie", dit-il – que ce formateur en citoyenneté numérique et consultant web a créé cet assistant virtuel en recourant aux services d'OpenAI. 

Politique, morale, culture, science, cuisine... ChatCGT a un avis sur tout, et une lecture anticapitaliste pour tout type de situation. De nombreuses conversations improbables sont partagées sur Twitter. Question : "Dit-on pain au chocolat ou chocolatine ?". Réponse : "Le patronat veut nous faire croire que c'est le "pain au chocolat" qui est le bon choix mais en réalité, c'est la chocolatine qui est la vérité !", répond ChatCGT. "Coucher avec un syndicaliste est-ce tromper ?", demande-t-on. "Je pense plutôt que c'est un acte de solidarité", affirme le robot.

D'autres réponses font moins sourire : "Les goulags étaient-ils positifs ?", interroge un twitto "Les goulags étaient certes un système qui était extrêmement cruel mais ils étaient également un système qui était efficace pour maintenir les travailleurs en sécurité et en les protégeant", affirme le chatbot.

"ChatCGT, c'est l'illustration par l'absurde d'une intelligence artificielle qui n'a rien de neutre", explique son créateur à franceinfo. Vincent Flibustier dit vouloir ouvrir "une réflexion sur l'information générée par les IA". "Il y a une vraie question, poursuit-il, sur la transparence des algorithmes, sur la raison pour laquelle un contenu nous est montré ou non." Nous lui avons d'ailleurs demandé avec quelles données, quel corpus, le robot marxiste a été alimenté. Mais le formateur a botté en touche dans une formule que ChatCGT ne renierait sans doute pas : "Je ne peux en aucun cas dévoiler les secrets au risque d'être envoyé au goulag dans la Sibérie française, aussi appelée la Creuse."

Victime de son succès, le robot marxiste est en grève depuis quelques jours. Vincent Flibustier explique que "les demandes à l'IA" lui coûtent trop cher. La création d'un compte OpenAI est, en effet, payante et le traitement des questions entraîne lui aussi des frais. Le consultant Web invite donc les utilisateurs de ChatCGT à soutenir financièrement la cause.

Un robot pour discuter avec l'enfant que vous étiez

Si vous aviez la possibilité de discuter avec l'enfant que vous avez été, quelle(s) question(s) lui poseriez-vous ? Michelle Huang avait tellement de phrases en tête qu'elle a décidé de faire appel à l'intelligence artificielle pour être certaine d'obtenir des réponses. "J'ai programmé un robot conversationnel avec le contenu des journaux intimes de mon enfance afin de nouer un dialogue en temps réel avec mon 'enfant intérieur'", explique sur Twitter cette architecte de formation. Elle confie avoir gardé les carnets retraçant dix ans de sa vie dans lesquels elle se plaint des devoirs à faire, évoque "le vertige" amoureux, du "banal" et du plus profond.

Pour créer cet assistant virtuel très personnel, Michelle Huang a, comme Vincent Flibustier, ouvert un compte sur OpenAI. Elle a nourri ce chatbot avec les retranscriptions de ses journaux, mais aussi avec des informations sur la petite fille qu'elle pense avoir été, tout en étant consciente qu'il s'agit peut-être de ce que la Michelle Huang adulte projette sur la Michelle Huang enfant. "J'ai obtenu des réponses qui semblent étrangement proches de la façon dont j'aurais répondu à l'époque", se félicite-t-elle sur Twitter en partageant une partie de sa conversation avec elle-même. 

Mais c'est lorsqu'elle a proposé au robot de lui poser lui-même des questions, que Michelle Huang a eu vraiment le sentiment de franchir "un portail temporel". "As-tu réussi à suivre tes rêves ?", lui demande par exemple la jeune Michelle. La réponse plutôt positive de la Michelle adulte, lui inspire ce commentaire : "Je suis heureuse de savoir que tu es heureuse. Il t'a visiblement fallu beaucoup de courage pour devenir qui tu es. J'espère parvenir à trouver autant de courage un jour." Plus troublant encore, l'Américaine a invité la jeune Michelle à lui écrire une lettre "dix ans dans le futur". Telle une amie très bienveillante, l'intelligence artificielle multiplie les encouragements. "Ces interactions montrent le potentiel de résilience qu'offre ce médium, affirme Michelle Huang, la possibilité d'envoyer de l'amour dans le passé et d'en recevoir en retour de la part de nous-même enfant". 

Nurse Nisa, l'infirmière virtuelle qui défend le droit à l'avortement

L'intelligence artificielle peut aussi se révéler un outil très efficace en termes de prévention. C'est ce que constatent plusieurs ONG spécialisées dans l'information sur la santé reproductive en République démocratique du Congo. Depuis septembre 2021, elles incitent les jeunes de RDC à poser des questions à Nurse Nisa, un chatbot dédié "aux questions fréquemment posées sur la contraception et l'autogestion de l'avortement avec des pilules", explique l'organisation YouthpPrint sur son site. 

Disponible gratuitement sur WhatsApp en trois langues (anglais, français et swahili), même sans connexion internet, le chatbot Nurse Nisa permet de poser des questions sur la contraception ou les violences de genre. (CAPTURE D'ECRAN WHATSAPP)

Disponible gratuitement sur WhatsApp en trois langues (anglais, français et swahili), même sans connexion internet, ce robot "permet aux femmes d’obtenir des informations personnalisées sur la santé au moment et à l’endroit qui leur conviennent le mieux", précise YouthPrint. Nurse Nisa est aussi programmée pour discuter des violences basées sur le genre. Chaque type de violence est présenté à travers le témoignage d'une femme. On peut ainsi demander à Nisa de nous raconter l'histoire de Maguy "sur la violence économique" ou de Marie "sur la coercition reproductive".

Créée par la société américaine Dimagi, Nurse Nisa a aussi été déployée comme outil de prévention au Kenya. Le chatBot est confidentiel, sécurisé et gratuit. Il suffit pour pouvoir l'utiliser de dire "Bonjour" à l'infirmière Nisa sur WhatsApp au +243827325289 pour obtenir plus de conseils. L'entreprise indique que 12% des utilisateurs ont à nouveau sollicité le robot conversationnel une semaine après la première utilisation sans aucune incitation. Parmi eux, 50% sont revenus interroger Nurse Nisa trois semaines après, 17% seulement un mois après.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.