Alors que des associations et des militants craignent que des États prennent le contrôle de l'outil de détection d'Apple, la firme se défend. Son « backdoor » qui surveille les images pédopornographiques sur iCloud est limité à un usage bien spécifique.
au sommaire
À la suite de la décision d'AppleApple d'analyser les photos stockées sur iCloud pour y détecter les images pédopornographiques, de nombreuses voix se sont élevées et depuis ce week-end, une pétition circule pour que la firme abandonne son projet. Déjà signée par plusieurs milliers d'internautes, cette lettre ouverte signée de groupes et de militants de la protection de la vie privée numérique, comme Edward Snowden, juge que le « backdoor » mis en place par Apple pourrait être transformé en outils de surveillance par des gouvernements autoritaires.
Pressé de toutes parts, Apple a décidé de répondre via une Foire aux questions, et la firme rappelle que sa technologie « se limite à détecter le contenu lié à des abus sexuels sur des enfants, stocké dans iCloud » , et qu'en aucun cas, elle n'accèdera aux demandes des gouvernements pour en étendre le champ d'action.
L'outil ne recherche que des images interdites, déjà identifiées
Au passage, Apple révèle que des pays l'ont effectivement déjà contacté dans le passé. « Nous avons déjà été confrontés à des demandes de création et de déploiement de changements mandatés par des gouvernements qui détériorent la vie privée des utilisateurs et nous avons fermement refusé ces demandes. Nous continuerons à les refuser à l'avenir. »
À ceux qui craignent qu'Apple ne scanne tous types de photos, la société répond que sa technologie, basée sur une Intelligence artificielle, ne peut être utilisée pour détecter autre chose que des images d'abus sexuels. Apple indique d'ailleurs que sa liste d'images interdites est fournie par le Centre national pour les enfants disparus et exploités (NCMEC) et d'autres organisations de sécurité des enfants, et que le système ne fonctionne qu'avec ces images.
Comment Apple va analyser vos photos pour faire la chasse aux pédocriminels ?
Apple vient d'annoncer de nouvelles mesures pour protéger les enfants. Parmi celles-ci, un nouveau système qui permet à la firme de traquer les pédophiles en analysant les images transférées sur iCloud aux États-Unis et en signalant toutes celles répertoriées dans une base de données nationale d'images pédopornographiques.
Publié le 06/08/2021 par Edward BackEdward Back
Apple vient d'annoncer la mise en place d'une nouvelle fonction sur iPhone et iPadiPad visant à protéger les enfants. Les images envoyées vers son stockage en ligne iCloud seront analysées afin de détecter les images pédopornographiques. Déjà lancée en phase test, elle sera étendue à tous les utilisateurs aux États-Unis avec le lancement de la mise à jour iOS 15 cet automneautomne.
Le traitement des photos se fera en local, directement sur l'appareil de l'utilisateur. Avant d'être transférées sur son espace iCloud, elles seront soumises à une fonction de hachagefonction de hachage, qui calcule une empreinte cryptographique. C'est cette empreinte qui sera ensuite comparée à une base de données fournie par le National Center for Missing and Exploited Children (NCMEC). Cette base de données sera directement intégrée dans iOSiOS 15 et contiendra les empreintes de toutes les images pédopornographiques déjà répertoriées.
Une alerte est lancée au-delà d’un certain seuil
Cette méthode permet d'assurer la confidentialitéconfidentialité des données, puisque tout le traitement est fait en local, et seule l'empreinte cryptographique est comparée. Si le système détecte une correspondance avec la base de données, il envoie le résultat ainsi que des données supplémentaires, sous forme chiffrée, dans l'iCloud avec la photo. À partir d'un certain seuil, non précisé, un employé d'Apple pourra accéder à ces images afin de déterminer si elles correspondent effectivement à de la pédopornographie. Le cas échéant, Apple désactive le compte de l'utilisateur et contacte le NCMEC.
D'autres services de stockage en ligne ont déjà mis en place des systèmes similaires. Toutefois, celui d'Apple ne peut signaler que les images déjà identifiées par les autorités. Il n'y a aucune analyse du contenu des images, et donc le système ne risque pas de signaler des parents lorsqu'ils prennent en photo leurs enfants dans le bain, par exemple.