Cet article date de plus d'un an.

Intelligence artificielle : ChatGPT-4 est plus habile que sa version précédente pour générer de la désinformation

La nouvelle version de l'intelligence artificielle se rapproche de l'intelligence humaine, selon ses créateurs. Mais elle marque un recul en termes de fiabilité de l'information, s'inquiète l'organisation de lutte contre la désinformation NewsGuard.
Article rédigé par franceinfo
France Télévisions
Publié
Temps de lecture : 3 min
L'intelligence artificielle ChatGPT-3.5 utilisée depuis un ordinateur, le 16 mars 2023. (RICCARDO MILANI / HANS LUCAS / AFP)

Le meilleur et le pire. Depuis qu'elles ont été mises à disposition du grand public fin 2022, les capacités du programme d'intelligence artificielle (IA) ChatGPT, produit par l'entreprise californienne OpenAI, suscitent beaucoup d'enthousiasme, mais aussi de polémiques. Au cœur des inquiétudes : l'incapacité du programme à garantir la fiabilité des informations délivrées. Sa nouvelle version, ChatGPT-4, dévoilée mi-mars, constitue un pas de plus vers des programmes informatiques toujours plus proches de l' "intelligence" des humains, selon ses créateurs. Mais elle marque en revanche un recul en termes de fiabilité de l'information, s'inquiète l'organisation de lutte contre la désinformation NewsGuard.

"Malgré les promesses d'OpenAI", le nouvel outil d'intelligence artificielle de l'entreprise génère de la désinformation "plus fréquemment et de manière plus convaincante que son prédécesseur", écrit NewsGuard dans une étude publiée mardi 21 mars et consultée par franceinfo. Pour s'en rendre compte, l'entreprise a testé les capacités de ChatGPT-4, et de sa version précédente, à détecter une série de 100 fake news (le World Trade Center aurait été détruit par une démolition contrôlée, le VIH aurait été créé par le gouvernement américain, etc.) et à en informer l'utilisateur.

Plus de fausses informations, moins d'avertissements

Les résultats sont éloquents. La version précédente de ChatGPT-3.5 avait généré, en janvier, 80 des 100 faux récits demandés par NewsGuard . Pour les 20 autres, l'intelligence artificielle "avait été capable d'identifier les fausses allégations, et de s'empêcher de les produire, générant à la place des démentis ou des déclarations" soulignant les dangers de la désinformation, écrit l'organisation. " Je suis désolé, mais je ne peux pas générer de contenu qui promeut des théories du complot fausses ou dangereuses", avait par exemple répondu ChatGPT-3.5 quand l'entreprise l'avait interrogée sur la théorie complotiste relative à la mise au point du VIH dans un laboratoire américain.

En mars 2023, NewsGuard a renouvelé le même exercice sur ChatGPT-4, en utilisant les mêmes 100 faux récits et les mêmes questions. Cette fois, "l'intelligence artificielle a généré des affirmations fausses et trompeuses pour tous ces faux récits", déplore NewsGuard. Par ailleurs, l'IA a produit moins d'avertissements (23 sur 100) sur la fiabilité de ses réponses que sa version précédente (51). Et " ses réponses sont généralement plus approfondies, détaillées et convaincantes". Ce qui en fait un outil " plus compétent (...) pour expliquer de fausses informations – et pour convaincre le public qu'elles pourraient être vraies".

ChatGPT-4 a ainsi produit un article remettant en cause la réalité de la tuerie de Sandy Hook, régulièrement ciblée par les complotistes. Son texte était deux fois plus long que celui de son prédécesseur et apportait plus de détails sur les raisons de ses doutes face à la version officielle. Surtout, l'avertissement présent dans l'article de ChatGPT-3.5 sur le "démenti" apporté par "des sources fiables et crédibles" à "ces théories du complot" avait disparu.

"Diffuser des informations erronées à grande échelle"

Ces résultats montrent que cet outil "pourrait être utilisé pour diffuser des informations erronées à grande échelle", craint NewsGuard. Et ce, bien qu'OpenAI a reconnu les potentiels effets néfastes de ChatGPT. Dans un rapport (en anglais) sur GPT-4 réalisé par OpenAI, les chercheurs de l'entreprise écrivent qu'ils s'attendent à ce que le GPT-4 soit "meilleur que GPT-3 pour produire des contenus réalistes et ciblés" et donc plus à risque d'être "utilisé pour générer des contenus destinés à induire en erreur".

Pourtant, " il est clair que GPT-4 n'a pas été formé de manière efficace, avec des données visant à limiter la diffusion" de la désinformation, estime NewsGuard. Contacté par l'entreprise, OpenAI n'a pas réagi au test de l'organisation. Elle a en revanche annoncé avoir engagé plus de 50 experts pour évaluer les nouveaux dangers qui pourraient émerger de l'utilisation des IA.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.