"Fake news", plagiats... NewsGuard alerte sur l'explosion des sites d'actualité générés par les intelligences artificielles
Vous faites une recherche sur un fait d'actualité, cliquez sur l'adresse d'un site, lisez l'article puis refermez votre ordinateur. Sans le savoir, vous venez peut-être de lire un texte écrit par une intelligence artificielle (IA). Les sites générés via des IA se sont multipliés ces derniers mois. NewsGuard, start-up spécialisée dans le suivi de la mésinformation, tire la sonnette d'alarme. Dans un de ses rapports, elle avait identifié 49 adresses de tels sites en mai 2023 ; aujourd'hui, elle en recense 767, dont 15 en langue française.
Ces sites, derrière lesquels l'humain n'est que très peu présent, voire inexistant, publient des milliers d'articles tous les jours. Sans réel contrôle humain, ils ont tendance à diffuser des fausses informations, détaille NewsGuard. En novembre 2023, le site web d'information Global Village Space avait par exemple annoncé que Benyamin Nétanyahou avait causé le suicide de son psychiatre. L'intelligence artificielle n'a pas été capable de différencier cette plaisanterie, publiée dans un journal satirique en 2010, d'une vraie information, et en a fait un contenu ressemblant à un article, comme l'a révélé NewsGuard.
Fausses informations et titres aguicheurs pour générer des clics
Des humains sont bel et bien à l'origine de ces sites, mais leur identité reste inconnue. "Certains ont compris l'intérêt économique, la publicité génère des recettes financières", explique Chine Labbé, directrice de la rédaction de NewsGuard. Les articles sont formatés de telle sorte qu'ils se retrouvent affichés dans les premiers résultats sur les moteurs de recherche. "C'est ce qui attire les annonceurs ; ils veulent que leur publicité soit vue alors ils visent les sites les mieux référencés pour les diffuser", note la journaliste.
Pour maximiser leur visibilité, ils publient des informations chocs. Leur spécialité : annoncer la mort de personnes bien vivantes. Ainsi, en janvier 2024, c'est la journaliste Deborah Vankin, du journal américain LA Times, qui en a fait les frais. Pourquoi ? Son nom avait été tapé de nombreuses fois sur les moteurs de recherche après la publication d'une de ses chroniques. "Lorsque les IA remarquent qu'un nom est particulièrement recherché, il est très fréquent qu'elles fassent des nécrologies, c'est le type d'article sur lequel les personnes cliquent" avance Chine Labbé, le clic étant l'objectif numéro un.
“D’autres publient des contenus polarisants afin de provoquer le chaos.”
Chine Labbé, directrice de la rédaction de NewsGuardà franceinfo
Après avoir détecté les opinions sources de conflits sur le web, comme le conflit israélo-palestinien, l'IA produit des articles sur ces sujets pour attirer les lecteurs. Le but reste identique : faire réagir et générer du clic. Mais alors comment reconnaître ces contenus ? Certaines techniques permettent de les repérer facilement. D'abord, ils sont remplis de répétitions et d'éléments contradictoires. "Si vous demandez à une IA d'écrire une recette d'omelette aux œufs de vache, elle peut tout à fait le faire", note Amélie Cordier, ingénieure experte en intelligence artificielle interrogée par franceinfo. Généralement, ces textes ne contiennent que très peu de citations et de sources. Enfin, ces sites sont ultra-productifs. C'est le cas d'Interstars, l'un des 15 sites francophones générés par IA. Surproduction, titres incitatifs et répétitions : tout y est. Autant de signes qui doivent vous inciter à la méfiance.
Mais certains sites sont plus subtils et reprennent au mot près des articles d'autres médias en ligne. Comme L'Observatoire de l'Europe, repéré par NewsGuard dans sa newsletter Reality Check. Ce site recopie les articles d'Euronews, média en ligne relié à une chaîne de télévision européenne. Les similitudes sont frappantes, certains articles sont des copies conformes, à la lettre près. Le dernier en date : un article contredisant la rumeur de la mort du roi Charles III. Initialement publié sur le site d'Euronews le 19 mars, cet article se retrouve sur L'Observatoire de l'Europe le même jour, mais cette fois-ci un certain Jean Delaunay est présenté comme en étant l'auteur.
L'Observatoire de l'Europe n'en est pas à son coup d'essai. En décembre 2023, il reprenait déjà un article d'Euronews sur ChatGPT et, plus récemment encore, c'est un papier sur la Saint-Patrick qui a été plagié. A chaque fois apparaît comme signature "Jean Delaunay", présenté comme fondateur du site et professeur en sciences politiques dans plusieurs universités "réputées". Après des recherches, nous n'avons trouvé aucune trace significative de ce pseudo-auteur.
Qu'ils plagient d'autres médias ou diffusent des fausses informations, ces sites foisonnent. Pour Chine Labbé, la solution est "d'éduquer les entreprises pour qu'elles ne donnent pas de publicité à ce type de sites, afin de minimiser leur visibilité". Il n'existe à ce jour aucune législation sur ce sujet.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.