Cet article date de plus d'un an.

"ChatGPT ne s'intéresse pas à la question de la vérité, c'est un outil puissant mais qui n'invente pas, il va falloir réassurer les vérités, vérifier les sources", estime Jean Viard

La place de l'intelligence artificielle aujourd'hui dans notre monde. Faut il freiner ou ouvrir les vannes ? C'est l'interrogation du jour avec le sociologue Jean Viard. Une technologie éthique est-elle possible ?
Article rédigé par Jules de Kiss
Radio France
Publié Mis à jour
Temps de lecture : 6min
Le logo du robot conversationnel ChatGPT (Generative Pre-trained Transformer) créé par par Open AI, sur un smartphone, le 3 avril 2023. 
"Un outil puissant", souligne le sociologue Jean Viard, "mais qui n'invente pas". (THOMAS TRUTSCHEL / PHOTOTHEK / GETTY IMAGES)

Cette semaine, la CNIL, la Commission nationale de l'informatique et des libertés, le gendarme des données personnelles en quelque sorte, a fait savoir qu'elle avait reçu deux premières plaintes en France visant le robot conversationnel dont on parle beaucoup, le robot américain chatGPT (Generative Pre-trained Transformer). On n'est pas anti-tech, mais on souhaite une technologie éthique, a expliqué l'avocate à l'origine d'une de ces plaintes. Le décryptage du sociologue Jean Viard. 

franceinfo : Une technologie éthique Jean Viard, comment répondre à toutes ces questions et plaintes qui surgissent ? 

Jean Viard : Je ne crois pas que les innovations, on puisse réellement les freiner. On peut les encadrer, on peut débattre de comment on les surveille. Mais quand un outil a une telle puissance et apporte tellement de choses, quand on dit : ça va supprimer 300.000 emplois ou des chiffres énormes, oui, ça veut dire que des gens vont être libérés de tâches répétitives, notamment dans le droit, par exemple. Parce que cet outil va vous traiter tout le droit sur un procès, ou faire deux pages pour vous dire tous les procès qu'il y a eu sur le même sujet, donc c'est un outil très efficace, mais c'est un outil qui ne dit pas la vérité. Il ne s'intéresse pas à la question de la vérité, et c'est un outil qui n'invente pas. Il n'y a que l'homme qui peut inventer, c'est le rôle des artistes, des intellectuels, etc., donc il ne faut pas se tromper de jeu. Mais c'est vrai qu'il va tellement vite qu'il est tellement fort, qu'il peut faire peur.

Donc on est dans cette situation-là. Comment on va construire la responsabilité,? Qui est responsable des gens qui utilisent GPT,? Ils vont croire que c'est vrai. J'ai lu sur internet et j'ai trouvé que c'était assez juste : "ça va être le 1ᵉʳ avril tous les jours". C'est-à-dire que le 1ᵉʳ avril, quand on regarde nos journaux, ce qu'on cherche, c'est l'information fausse. Parce que, au fond, il va falloir apprendre à faire ça tous les jours. Je dirais que c'était déjà un peu ça avec le monde complotiste, le monde numérique, mais c'est une question qui est absolument essentielle. C'est qu'effectivement il va falloir réassurer les vérités, vérifier les sources.

Donc il y a un boulot énorme en sachant qui va être responsable des informations qui sont données. Parce que si on vous donne un texte avec une source fausse, qui est responsable ? Quand je publie un livre, si ma source est fausse, j'accepte qu'on me le dise. C'est ça le débat démocratique. 

Jean Viard, vous êtes un auteur, vous êtes aussi éditeur aux éditions de l'Aube, vous recevez beaucoup de textes d'auteurs. Vous avez pris une initiative justement, pour vérifier qu'il n'y avait pas des faussaires, en quelque sorte, qui vous soumettent des textes écrits par ChatGPT ?

Oui, on en a déjà discuté, et on est en train de chercher une start up qui nous permette de lui passer les textes pour voir effectivement si c'est issu de ChatGPT, tout ou partie, pas forcément tout. Mais je pense que c'est la même question qui va se poser dans les universités, c'est-à-dire qu'il va y avoir des détecteurs. Quelque part, il y a un peu un côté "bougie de chat" en fait, c'est-à-dire, à la fois c'est passionnant, et en même temps, les liaisons, tout ça sont un peu toujours les mêmes. Je dirais : il y a un langage ChatGPT. Et effectivement, on a décidé de se renseigner pour s'acheter un logiciel, s'il est accessible, pour y passer les manuscrits, pour éviter de se faire entraîner sur des manuscrits qui seraient un peu, en partie, des faux manuscrits. 

Alors, face à ce que certains jugent être des dérives, vous, vous avez parlé du fond. Il y a aussi l'utilisation des données personnelles. L'Italie a décidé de bloquer ChatGPT, justement parce que le robot enfreindrait le RGPD, le règlement européen sur ces données personnelles. On n'interdira pas ChatGPT en France. C'est ce qu'a fait savoir le ministre du Numérique, Jean-Noël Barrot, qui partage pourtant le constat : "La question posée par l'Italie est subtile et intéressante, même si elle y apporte une mauvaise réponse", dit-il...

L'Europe est en avance sur les Etats-Unis. Les Etats-Unis n'ont aucune règle dans tous ces domaines, or, c'est quand même eux qui portent ça, y compris dans ChatGPT, l'essentiel des documents qui nourrissent les réponses à nos questions vient du monde anglo-saxon. Et effectivement, on essaie de cadrer, il faut réguler. On est dans une nouvelle révolution industrielle. On est en 1848, au moment de la transformation de l'Angleterre en pays industriel, c'est du même style de rupture des sociétés. Et on est entré dans l'industrie écologique. On est entré dans une société qui va produire un monde bas carbone et qui est une nouvelle aventure passionnante et extrêmement dangereuse.

Donc il faut se dire que c'est aussi un outil d'une extraordinaire puissance pour ce combat. Mais c'est comme l'imprimerie, quand l'imprimerie s'est démocratisée, et qu'effectivement la Bible est devenue accessible à tout le monde, et que ça a entraîné les ruptures religieuses qu'on connaît, il y a toujours des gens qui disent non, il faut arrêter l'imprimerie ! Non, il ne faut pas arrêter l'imprimerie, il faut éduquer les populations. Apprenons à jouer avec, apprenons à nous en servir et surtout, ne nous sauvons pas, vous savez on ne gagne jamais un combat, quand on se sauve...

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.