: Témoignages "Il ne faut pas voir l'intelligence artificielle comme un ennemi" : ces travailleurs qui utilisent ChatGPT comme assistant personnel à l'insu de leur employeur
Un assistant personnel capable de reformuler des mails, de les traduire dans un anglais impeccable, de trouver une information précise… A mille lieues des dessinateurs qui s'inquiètent de voir des robots leur voler leur gagne-pain, certains employés aventureux ont vu en l'application conversationnelle ChatGPT une opportunité d'optimiser leurs journées de travail.
Car la démarche est tentante : il suffit d'une requête bien formulée à l'intelligence artificielle, par exemple "Peux-tu me synthétiser ce rapport, comme si tu t'adressais à enfant de huit ans ?" pour obtenir, en quelques secondes, une réponse cohérente au premier abord. Simple d'usage et gratuite, ce programme d'intelligence artificielle dite "générative" a été décliné en version payante, plus fluide et réactive, en février. Pour mieux comprendre les enjeux liés à l'émergence de ce nouvel outil, franceinfo a interrogé des salariés qui ont commencé à intégrer ChatGPT à leur travail quotidien à l'insu de leur patron.
"Une heure ou deux" de travail par jour en moins
Pierre importe des produits alimentaires japonais à destination de toute l'Europe. Pour lui, ChatGPT est comme un super moteur de recherche qui lui évite de perdre du temps sur Google. "Je lis beaucoup d'articles sur le riz, sur l'état des récoltes, les algues au Japon… Certains articles de l'Organisation de coopération et de développement économiques (OCDE) sur ces sujets font plus de 200 pages, alors je demande à ChatGPT de me faire un résumé, et de me signaler les points importants à retenir." Dimitri, acheteur dans le BTP, déniche pour sa part grâce au chatbot des informations techniques sur les machines qu'il va importer. Volume, poids, dimensions... Autant de détails qu'il peine à trouver rapidement sur la toile.
Au départ, Geneviève* culpabilisait de déléguer une partie de son travail à l'application. Mais cette quinquagénaire, responsable de contenu dans une ONG, estime économiser "une heure ou deux" de travail par jour grâce à ChatGPT. "Je gère une quantité insurmontable de contenus, fournis par une centaine de collaborateurs dont la rédaction n'est pas le métier. Je suis très méticuleuse. S'il y a la moindre erreur, ça me tombe dessus." Elle demande donc à l'IA de réécrire ces textes – parfois dans un anglais plus soutenu – avant de les peaufiner elle-même. Elle est tellement satisfaite de ce programme qu'elle essaie de convertir ses collègues à son utilisation.
Comme Pierre, Dimitri et Geneviève, plus de 206 millions de personnes se sont rendues en avril sur le site de ChatGPT, selon l'entreprise britannique d'analyse de trafic Similarweb. L'interface de l'entreprise américaine OpenAI, dévoilée au grand public en novembre 2022, a connu un succès fulgurant, au point d'attirer un million d'utilisateurs seulement cinq jours après son lancement.
Des travailleurs adeptes du "bricolage"
Patrick*, ingénieur de 32 ans, travaille comme administrateur de base de données dans un centre d'appels. Il raconte s'être servi de l'application pour gérer une situation de crise, au cours de laquelle il a dû transmettre un message à la fois ferme et empathique à une collaboratrice accusée de fraude.
"ChatGPT m'a pondu un texte qui collait parfaitement à la situation. J'étais abasourdi !"
Patrick*, informaticienà franceinfo
Le sens de la formule n'est pas le seul point fort de l'IA. "On n'a plus besoin d'apprendre d'autres langages informatiques", se réjouit Louis*. Chercheur en anthropologie, il a réussi à créer un site web sans connaître le langage informatique Javascript. Damien*, technicien de support informatique, parvient même à résoudre des pannes rares et complexes grâce à ChatGPT. L'informaticien de 25 ans apprécie la pédagogie de ce collègue virtuel : "Il va nous aiguiller, donner une réponse avec les étapes, détailler la procédure pour résoudre le problème…" Entraînée sur près de 200 milliards de mots, selon une étude publiée par OpenAI, l'application conversationnelle utilise en effet un réseau de neurones artificiels donnant l'impression d'échanger avec un être humain.
Ce type d'utilisation de l'IA peut être qualifié de "bricolage", analyse Yann Ferguson, sociologue à l'Institut catholique d'arts et métiers de Toulouse et responsable scientifique du LaborIA, un laboratoire de recherche-action du Ministère du Travail et de l'Institut national de recherche en sciences et technologies du numérique. En s'appropriant ainsi cet outil, "c'est le travailleur qui libère les usages, grâce à sa démarche. Il cherche, bricole et fait ses propres découvertes". Cette utilisation spontanée, sous les radars de l'entreprise, contraste avec un usage prescrit par l'employeur dans le but de gagner en productivité, en compétitivité et en performance, selon le chercheur.
"Pas sûr que mes chefs soient d'accord"
Selon un sondage Ifop-Talan, paru en mai, 68% des Français qui utilisent les IA génératives en entreprises le cachent à leur supérieur hiérarchique. Pour Geneviève, l'occasion d'en discuter avec sa cheffe ne s'est pas présentée. "Si elle venait me voir, je lui dirais que je m'en sers", soutient-elle. Pierre se trouve dans une zone grise qui l'arrange. "Pas sûr que [mes chefs] soient d'accord, pour des raisons de confidentialité", confie l'acheteur, qui se dit prêt à respecter une éventuelle interdiction. Patrick, lui, a bravé l'interdiction de son employeur, qui a jugé l'application trop gourmande en ressources. L'informaticien affirme toutefois ne transmettre aucune donnée confidentielle au chatbot.
Car l'usage de l'IA "en douce" comporte des risques en matière de cybersécurité et de fuite de données pour l'employeur. En voulant corriger des erreurs de code informatique, des employés de Samsung ont par exemple divulgué des informations confidentielles à ChatGPT. Le géant sud-coréen a donc décidé d'en interdire l'usage à ses employés, a relaté en mai l'agence de presse américaine Bloomberg. Pour éviter ces fuites, l'une des solutions préconisées par Yann Ferguson serait de déployer ces IA génératives sur les serveurs internes des entreprises. Un moyen de "garantir la précision et la sécurisation des données", souligne-t-il.
Une "absence de cadre légal"
En France, par précaution, la mairie de Montpellier a pris la décision en mars d'interdire à ses agents d'utiliser l'intelligence artificielle. "On souhaite évidemment l'utiliser, mais avant, on veut une notice d'utilisation", a expliqué Manu Reynaud, adjoint au maire de la ville, déplorant une "absence de cadre légal". Ce cadre est en train de voir le jour sous l'impulsion de l'Union européenne. Les députés du Parlement européen ont approuvé en mai un projet de réglementation de l'intelligence artificielle, qui s'appliquera à ses Etats-membres. Dans cet "Artificial Intelligence Act", plus l'IA est considérée comme risquée, plus la régulation qui s'appliquera sera stricte.
Les IA génératives ne font pas exception. Pour respecter la réglementation européenne, leurs éditeurs devront s'assurer de la sécurité de leur programme, et du respect des droits d'auteur des contenus utilisés pour entraîner les systèmes. Il faudra aussi que ceux-ci évaluent les risques pour les droits fondamentaux, la sécurité et l'environnement, la démocratie et l'état de droit. "Si on regarde ChatGPT, elle ne satisfait à aucune de ces exigences européennes", constate Yann Ferguson. En attendant cette régulation, l'UE et les Etats-Unis ont annoncé la prochaine publication d'un "code de conduite" commun sur l'intelligence artificielle, s'appliquant sur la base du volontariat.
Des employés "augmentés" plus que "dominés"
L'outil a ses limites. Jonathan Narboni, chercheur en informatique théorique à l'université Jagellon de Cracovie, en a bien conscience : "ChatGPT est incapable de produire des preuves mathématiques. Il affirme des choses avec beaucoup d'aplomb, mais avec des incohérences… Il fait du 'bullshit' [baratinage] d'école de commerce", s'amuse-t-il. ChatGPT ne dit en effet pas toujours la vérité. Selon une étude conduite par des chercheurs de l'université britannique d'Oxford (document PDF), dévoilée fin mai, le programme d'OpenAI ne donne même de bonnes réponses que dans 58% des cas.
"Ce système n'est qu'un prédicteur de mots, il les assemble. Il ne donne pas une réponse, mais ce qui pourrait ressembler à la réponse."
Yann Ferguson, sociologueà franceinfo
Ni Jonathan Narboni ni Geneviève ne sentent leur emploi menacé par cette IA encore limitée. "J'ai essayé de faire des trucs créatifs, car on doit créer des campagnes de communication qui attirent l'attention. Mais je n'ai pas l'impression que ChatGPT va me sauver la vie", tempère la responsable de contenus. Les travailleurs interrogés par franceinfo correspondent aux profils sociologiques définis dans les travaux de Yann Ferguson de "l'employé augmenté", qui a amélioré ses capacités productives, voire de "l'employé réhumanisé", qui se libère des tâches répétitives pour se concentrer sur des activités typiquement humaines.
Mais il existe aussi la figure d'un "employé dominé", piloté par les algorithmes et souvent précaire. Yann Ferguson alerte contre le risque de polarisation du monde du travail "entre une élite très bien rémunérée et une masse d'emplois inintéressants, moins bien rémunérés voire 'ubérisés'". Dans un rapport paru en 2018, l'OCDE affirmait que 14% des emplois risquaient d'être automatisés, tandis que 32% étaient susceptibles d'être profondément modifiés.
"Un robot" qu'il suffit d'apprivoiser ?
Comment apprivoiser l'IA générative, sans compromettre son entreprise ? "ChatGPT nous permet d'apprendre à conduire. Mais pour l'instant, on essaie de rentrer dans la voiture sans avoir appris le code de la route", illustre Yann Ferguson. Selon le sondage Ifop-Talan, 72% des Français estiment ne pas encore avoir les connaissances suffisantes pour utiliser les IA génératives. Le sociologue préconise un apprentissage éclairé, conjuguant pratique et théorie, en s'appuyant sur des formations en ligne et en se posant les bonnes questions : "Ai-je les compétences pour vérifier ce que me dit ChatGPT ? Suis-je prêt à assumer les responsabilités en cas d'erreur ? Si la réponse est non, il ne faut pas y aller", tranche le sociologue.
Dans un souci de transparence avec son entreprise, Dimitri, acheteur dans le BTP, a monté un groupe de réflexion sur l'intelligence artificielle avec différents métiers de son groupe. Il espère qu'à terme, son employeur acceptera de réaliser des tests à plus grande échelle, voire d'en financer l'usage. "On est déjà en retard sur ces technologies. Mais je pense que ça va se faire", espère-t-il. "Qu'on le veuille ou non, notre avenir sera autour de l'IA, et on sera tous obligés de s'en servir", anticipe Pierre, acheteur dans l'alimentaire. "Il ne faut pas voir l'IA comme un ennemi du travail. Ça reste un robot, il faut juste apprendre à s'en servir, au même titre qu'internet", conclut-il.
* Les prénoms suivis d'un astérisque ont été modifiés à la demande des intéressés.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.