au sommaire


    L'entraînement des intelligences artificiellesintelligences artificielles génératives nécessite une grande quantité de données. Bien souvent, les chercheurs récupèrent les contenus en massemasse sur le Web, sans obtenir le consentement de leurs auteurs. Pour pouvoir se défendre, ces derniers font de plus en plus appel à des solutions qui permettent d'empoisonner toute IA qui tenterait de s'en servir.

    Il existait déjà Nightshade pour protéger les images, qui modifie les pixelspixels de manière imperceptible afin de tromper l'IA. Pour la musique, il existe désormais HarmonyCloak. Développé par des chercheurs de l’université du Tennessee aux États-Unis, le logiciellogiciel ajoute des sons imperceptibles pour l’oreille humaine. Toutefois, toute IA entraînée dessus entendrait tout autre chose, une série de sons désorganisés, empoisonnant ainsi son entraînement. La méthode rappelle AntiFake, un système similaire qui protège la voix du clonageclonage, mais dont les perturbations sont toutefois audibles. Lorsque l'IA tente ensuite de générer une chanson en ayant été entraînée sur des morceaux protégés par HarmonyCloak, le résultat est incohérent.

    Voici deux clips audio générés par une IA. Pour le premier, l’IA a été entraînée sur les morceaux « propres ». Pour le second, elle a été entraînée sur des morceaux protégés par HarmonyCloak et produit donc un résultat chaotique. © Université du Tennessee, New Atlas

    Une protection qui persiste après conversion à un autre format

    L'outil génère le bruit afin qu'il se confonde complètement avec la musique, de manière à le rendre imperceptible pour l'oreille humaine, une sorte de couche supplémentaire que seule l’IA peut entendre. Et la protection ne peut pas être retirée simplement en compressant le morceau, signifiant qu'il est possible de le convertir au format MP3, par exemple, sans perdre la protection.

    HarmonyCloak propose deux modes de fonctionnement. Le premier optimise la protection pour un modèle d'IA spécifique, obtenant ainsi un niveau de protection supérieur. Le second mode protège contre toutes les IA. Dans les deux cas, l'IA ne pourrait pas simplement décoder la protection et la contourner, puisqu'elle est unique, adaptée à chaque morceau. Les chercheurs comptent présenter HarmonyCloak au symposium de l'IEEEIEEE sur la sécurité et la confidentialitéconfidentialité au mois de mai 2025.

    Logo WhatsApp

    Suivez Futura sur WhatsApp et Google Actualités
    pour ne rien rater de l’actualité sciences & tech !

    Logo Google Actualités