Un rapport alerte sur les contenus néonazis de plus en plus nombreux en ligne, et notamment ceux reproduisant la voix d’Hitler grâce à l’intelligence artificielle. Les chercheurs s’inquiètent du manque de modération sur les réseaux sociaux, et notamment sur X.


au sommaire


    Avec les récentes évolutions en matièrematière d'intelligence artificielle, les deepfakes sont de plus en plus nombreux et crédibles. The Washington Post vient de lancer l'alerte sur une multiplication des deepfakes d'Adolf Hitler par l'extrême droite américaine. Basé sur un rapport de l'Institute for Strategic Dialogue, l'article met en garde contre des vidéos négationnistes créées avec l'IA et obtenant des millions de vues.

    Le rapport s'est notamment concentré sur des vidéos où l'IA a été utilisée pour dupliquer la voix d'Hitler pour le faire parler en anglais, des contenus qui ont obtenu plus de 25 millions de vues sur X (ex-TwitterTwitter), TikTokTikTok et InstagramInstagram depuis le 13 août. Sans surprise, les chercheurs ont découvert que les vidéos étaient les plus visibles sur X. Le rapport épingle notamment une émissionémission de Tucker Carlson, ancien présentateur sur la chaîne Fox News, qui diffuse désormais sur le réseau X. Il avait invité le podcasteur Daryl Cooper, qui a tenu des propos négationnistes. Elon MuskElon Musk le patron de X, l'avait retweeté en ajoutant « mérite d'être regardé », avant de l'effacer plus tard. « Si ces commentaires ont suscité une vive controverse en ligne, ils ont surtout généré un grand nombre de contenus glorifiant Hitler et le présentant comme un "artisan de la paix" », indique le rapport.

    Des contenus créés en quelques minutes

    Un utilisateur, qui s'identifie comme créateur de contenus néonazis, avait publié un tutoriel sur Odysee sur l'utilisation du logiciel d’ElevenLabs pour créer des deepfakes audio d'Hitler en seulement cinq minutes. Il suffit de quelques secondes d'un discours d’Hitler pris sur YouTubeYouTube pour dupliquer sa voix et pouvoir le faire énoncer une traduction d'un de ses discours ou n'importe quel autre texte. Ces vidéos sont souvent publiées sur TikTok, Instagram ou X sans référence explicite à Hitler ou de logo extrémiste, l'audio étant accompagné par des visuels sans forcément de rapport. Cela les rend très difficiles à détecter pour les équipes de modération des réseaux sociauxréseaux sociaux.

    Les chercheurs ont aussi souligné que sur X, après avoir interagi avec plusieurs publications pro-nazi, l'algorithme du réseau social s'est rapidement adapté pour proposer plus de 50 % de contenus pro-nazi, antisémites ou parlant d’Hitler dans le fil d'actualités. Ils s'inquiètent de la montée des contenus négationnistes et révisionnistes en général, et le manque de réactivité des plateformes.