au sommaire
Les intelligences artificiellesintelligences artificielles ne savent pas uniquement générer des images en partant d'une description. Elles peuvent également éditer des images existantes, par exemple pour insérer quelqu'un dans une autre photo. Cela permet de créer des deepfakesdeepfakes extrêmement réalistes et difficiles à repérer.
Des chercheurs du Massachusetts Institute of Technology (MIT) aux États-Unis ont développé une technique baptisée PhotoGuard pour immuniser les images contre la manipulation par des IA. Elle altère un certain nombre de pixelspixels d'une manière qui reste invisible à l'œilœil nu. Elle affecte la représentation latente de l'image utilisée par les grands modèles de diffusion, autrement dit une conversation mathématique qui permet à l'IA de comprendre l'image.
Démonstration de PhotoGuard. Des visages d’une photo source (recouverts en noir pour indiquer à l’IA qu’il faut les conserver) sont utilisés pour générer une nouvelle image, en montrant la différence avant et après avoir immunisé la source. © Hadi Salman
Les pixels sont manipulés de manière à produire la même représentation latente qu'une autre image, par exemple entièrement grise. L'IA n'est alors plus capable de produire une image réaliste en conservant des éléments de l'image source, car elle ne la comprend plus correctement. La protection peut toutefois être contournée en ajoutant du bruit sur l'image, ou même en l'inversant ou en la recadrant. Les chercheurs espèrent que les entreprises qui développent les modèles de diffusiondiffusion pourront intégrer un système d'immunisation directement dans leurs IA.
Suivez Futura sur WhatsApp et Google Actualités
pour ne rien rater de l’actualité sciences & tech !