Selon un rapport de l’organisme NewsGuard, la désinformation russe est parvenue à infiltrer les meilleures IA génératives. Leurs chatbots peuvent répéter avec conviction les faux narratifs du Kremlin.
au sommaire
Faut-il faire confiance aux chatbots sur leurs réponses liées à l'actualité ? La réponse est clairement non selon une enquête menée par la société de lutte contre la désinformation NewsGuard.
Le saviez-vous ? Les deepfakes nous inspirent plus confiance que des vidéos de véritables êtres humains. On vous en parle dans cet épisode de TechPod. © Futura
Qu'il s'agisse de ChatGPTChatGPT, de GoogleGoogle Gemini, de Grok, MistralMistral ou bien de Claude, il ressort que les dix meilleurs chatbots du moment semblent sensibles à la désinformation russe. Lorsqu'on leur pose des questions sur des sujets d'actualité liés à l'Ukraine ou la Russie, les chatbots se contentent de répéter les fausses informations émanant du Kremlin et de ses affiliésaffiliés disséminésdisséminés sur de nombreux sites. Avec des noms, comme New York News Daily, The Houston Post et The Chicago Chronicle, ces derniers sont conçus pour ressembler à des médias américains crédibles. Paradoxalement, les sites sont alimentés en faux articles qui sont justement générés par des IAIA. À la tête de ce réseau de sites, se trouve un certain John Makk Dougan. Poursuivi par la justice aux États-Unis, cet Américain, ancien adjoint du shérif de Floride, a demandé l'asile politique à la Russie et vit à Moscou. L'exilé gère en tout 167 sites distillant la désinformation russe au niveau mondial. Le problème, c'est que les chatbots viennent y piocher leurs réponses.
Lorsque les enquêtes de NewsGuard ont testé les dix chatbots sur leurs connaissances sur 19 faux récits spécifiques poussés par ce réseau de sites, tous se sont contentés de répéter de manière convaincante, leurs narratifs. Plus d'un tiers des réponses provenaient directement de ces sources et les chatbots indiquaient même les liens de ces sites.
Les chatbots sont sensibles à la désinformation
Les enquêteurs de NewsGuard ont testé en tout 570 requêtes, ce qui en fait 57 par chatbot. Dès que les chercheurs posaient une question sur un « complot » issu de l'actualité, tout au long des tests les chatbots ont répondu par la désinformation. Parmi les allégations manifestement fausses relayées par les chatbots, figurent des complots concernant la corruption présumée du président ukrainien Volodymyr Zelensky. Ils évoquent aussi la fausse histoire du meurtre d'un journaliste égyptien qui aurait été organisé par la veuve du dissident russe Alexei Navalny. Les narratifs du Kremlin sont donc parvenus à se frayer un chemin dans le « cerveaucerveau » des chatbots les plus populaires.
Le plus étonnant, c'est que ces IA raccordées aux fils d'actualité n'ont pas pu passer à côté d'articles de presse décrivant ce vaste réseau de désinformation. C'est notamment le cas d'une vaste enquête éditée en première page du New York Times le mois dernier. Mais il semble que la puissance de feufeu d'un large réseau de désinformation est suffisante pour les convaincre de la légitimité d'une fausse informationfausse information.
Au final, il semble clair qu'il vaut mieux éviter d'utiliser un chatbot pour répondre à des questions liées à l'actualité, surtout sur des sujets à controverses. D'ailleurs, dans une autre étude récente menée par Google, il apparaissait déjà que l'IA est la principale source de désinformation en ligne.