Un an après le lancement de ChatGPT, l'intelligence artificielle générative a-t-elle déjà changé nos vies ?

Article rédigé par Luc Chagnon
France Télévisions
Publié Mis à jour
Temps de lecture : 7 min
Un an après la sortie de ChatGPT, l'"intelligence artificielle générative" a-t-elle vraiment changé nos vies ? (PAULINE LE NOURS / FRANCEINFO)
Le logiciel développé par le groupe OpenAI promettait une révolution en générant des textes à la demande. Si la transformation en profondeur n'a pas encore eu lieu, les questions suscitées par cet avènement persistent.

C'est une technologie présentée par beaucoup comme une nouvelle révolution, du niveau de l'ordinateur, de l'électricité ou même du feu. Une révolution capable de transformer la société... ou de l'anéantir, selon les prédictions les plus apocalyptiques de certains. Et elle a un symbole, un programme devenu pendant un temps le succès le plus rapide de l'histoire de l'informatique : ChatGPT.

Sorti le 30 novembre 2022 et développé par OpenAI, ChatGPT a marqué l'entrée fracassante dans le débat public des IA génératives, ces programmes capables de générer des textes, des images ou des voix extrêmement proches de ce que pourrait faire un humain. En quelques secondes et sans nécessiter de compétences en informatique.

Un an après la sortie de ChatGPT, où en est cette "révolution" ? A-t-elle déjà transformé nos vies, nos usages ou l'économie ? Comment a-t-elle fait irruption au centre des débats ?

L'IA est déjà partout...

Pas besoin d'être un génie de l'informatique pour être concerné, car l'IA générative est déjà tout autour de nous. Écrire un mail, retoucher une photo, utiliser son smartphone ou faire une simple recherche internet… Depuis plusieurs mois, les plus grands noms de la tech rivalisent pour intégrer cette technologie à tous les aspects de notre vie quotidienne.

En tête de cette nouvelle course : Microsoft, partenaire privilégié d'OpenAI qui déploie ses technologies dans son système d'exploitation Windows et son navigateur Bing, mais aussi Google qui fait de même via son moteur de recherche et ses smartphones. Mais elle est aussi intégrée dans Facebook et Instagram, via des chatbots conversationnels inspirés de personnalités, et bientôt dans Alexa, l'assistant vocal d'Amazon.

C'est sans parler des dizaines de nouvelles start-up qui ont éclos dans le secteur ces derniers mois (comme le Français Mistral AI), levant des centaines de millions de dollars au total – parfois avant même de commercialiser le moindre produit. Au point que certains avertissent déjà du risque de "bulle spéculative". "Les revenus ne sont pas encore là, et ils pourraient ne jamais arriver", avertit l'entrepreneur Gary Marcus, spécialiste d'intelligence artificielle, dans une newsletter.

... mais elle est encore peu utilisée

Mais si révolution il y a, il s'agit plutôt d'un mouvement de fond. "L'intelligence artificielle existe sous une forme ou sous une autre depuis près de 50 ans", rappelle Nicolas de Bellefonds, directeur monde de l'activité IA au sein de BCG X, la branche dédiée à la transformation digitale du cabinet de conseil Boston Consulting Group.

"Le 'big data' se déploie dans la vie quotidienne depuis une dizaine d'années. L'IA générative en est une nouvelle forme."

Nicolas de Bellefonds, consultant et spécialiste de l'intelligence artificielle

à franceinfo

Une nouvelle forme qui devrait apporter des gains de productivité spectaculaires et transformer en profondeur de nombreux métiers, pour ses plus ardents défenseurs. "Il va y avoir un grand nombre de perdants [et ils] seront très mécontents, très inquiets", a par exemple averti Mustafa Suleyman, co-fondateur du laboratoire de recherche en IA DeepMind (aujourd'hui propriété de Google), cité par le Financial Times. Mais pour le moment, l'impact concret sur la production est nettement plus limité.

"On en voit à peine les premiers effets, les entreprises commencent tout juste à vraiment s'en saisir."

Nicolas de Bellefonds, consultant et spécialiste de l'intelligence artificielle

à franceinfo

"La moitié des entreprises attendent que les géants de la tech déploient cette technologie dans leurs produits", estime Nicolas de Bellefonds. "40% ont commencé à transformer en profondeur une de leurs fonctions (marketing, service client…) et environ 10% commencent à repenser profondément leur proposition de valeur", ajoute le responsable de BCG X.

Désinformer et concurrencer

L'éducation aussi commence à être affectée, petit à petit. Si certains professeurs ont déjà intégré certains de ces outils à leur cursus, près d'un étudiant sur deux (55%) dit les utiliser au moins occasionnellement, selon une enquête. Mais pas pour faire tout le travail : principalement comme un assistant de rédaction, plus qu'un prête-plume ou un outil de recherche documentaire.

Les réseaux sociaux, en revanche, sont déjà transformés. Chansons "reprises" avec les voix de Johnny Hallyday ou Drake, fausses conversations de Joe Biden jouant aux jeux vidéo avec Donald Trump et Barack Obama, images prétendant montrer des explosions au Pentagone ou des victimes de la guerre entre Israël et le Hamas… L'année écoulée depuis la création de ChatGPT a vu la multiplication des deepfakes, ces vidéos retouchées pour y intégrer des voix ou des visages avec un réalisme impressionnant. Souvent dans un but humoristique – mais aussi, régulièrement, pour désinformer.

"Ces images synthétiques jettent déjà la suspicion sur tous les contenus, réels ou pas. J'ai vu plusieurs fois des gens remettre en cause une image en affirmant sans aucune preuve qu'elle était générée par IA."

Tristan Mendès France, chercheur, spécialiste des cultures numériques

à franceinfo

Des risques qui ont alimenté des mouvements de résistance massifs tout au long de l'année. En première ligne, les artistes : auteurs et illustrateurs, mais aussi acteurs et scénaristes, qui ont mis à l'arrêt Hollywood pendant plusieurs mois pour réclamer des garanties aux studios de cinéma. 

Car pour générer des textes ou des images impressionnants en un clin d'œil, les concepteurs de ces IA génératives leur font analyser des millions d'exemples créés par des humains. Le plus souvent, sans que ces derniers ne soient rémunérés, ni même avertis de leur participation – alors que ces IA peuvent ensuite concurrencer leurs œuvres pour bien moins cher. "On utilise notre travail pour nous mettre au chômage", se lamentait Karla Ortiz, une artiste américaine figure du mouvement contre l'IA, auprès de BFMTV au début de l'année.

Une vaine tentative de régulation ?

C'est pourquoi depuis la sortie de ChatGPT, le nombre d'initiatives pour réguler l'IA générative a lui aussi explosé. Déclarations du G7, de l'ONU, de Bletchley Park au Royaume-Uni, décret de Joe Biden aux Etats-Unis… "Aujourd'hui, la course à l'IA se double d'une course pour réglementer l'IA", analyse Sacha Alanoca, experte en politique de l'IA auprès de l'OCDE et chargée de cours à l'Université de Harvard. "Beaucoup de pays veulent créer un standard réglementaire, on a une pluie de déclarations de principe, au point que ça peut être difficile de savoir où tourner son attention."

Ces déclarations veulent souvent prendre en compte les questions les plus pressantes (droits d'auteur, deepfakes), mais aussi parfois des risques plus lointains et théoriques. La question revient de plus en plus souvent dans le débat : peut-on imaginer la création d'une "intelligence artificielle générale" aux capacités intellectuelles égales ou supérieures à celles des humains ? De futures IA pourraient-elles provoquer l'extinction de l'humanité, dans les mains des humains ou de leur propre initiative ?

Certains se disent convaincus de ces possibilités, à l'instar de Sam Altman, le patron d'OpenAI. Pour d'autres, même si le risque est infime, il faut s'y préparer. Mais pour de nombreux experts, il ne s'agit que d'une distraction qui sert les intérêts de ces entreprises.

"Attirer l'attention sur le long terme permet de distraire les régulateurs des risques immédiats posés par les IA, et donc d'éviter une régulation rapide qui pourrait entraver le business de ces entreprises."

Sacha Alanoca, experte en politique de l'IA, chargée de cours à l'université de Harvard

à franceinfo

"Il y a peu de chances qu'un accord mondial contraignant sur l'IA soit trouvé prochainement", abonde Philipp Hacker, professeur de droit des technologies à l'université européenne Viadrina de Francfort. "Je pense que ce serait très utile, car les modèles d'IA transcendent les frontières, tout comme les entreprises qui les créent et les jeux de données. Mais tout texte international significatif devrait être ratifié par le Congrès américain, qui est probablement trop dysfonctionnel pour s'accorder pour le moment."

C'est donc l'Europe qui pourrait ouvrir la marche. Depuis plusieurs mois, l'UE discute de l'AI Act, un texte qui devrait poser de nombreuses contraintes claires pour les entreprises et acteurs de l'IA générative (ainsi que d'autres algorithmes). Mais sa formulation fait encore débat, et son adoption avant 2024 n'est pas garantie. En attendant, le secteur continue de se développer à un rythme effréné. "Ce qui est le plus impressionnant avec ces IA, c'est l'écrasement du niveau de compétence nécessaire pour créer des contenus de qualité", note Tristan Medès France. "Une chose est sûre : personne ne sait où on en sera l'année prochaine."

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.