En août 2021, Apple a annoncé un plan pour numériser les photos que les utilisateurs ont stockées dans iCloud pour le matériel d’abus sexuel d’enfants (CSAM). L’outil était censé préserver la confidentialité et permettre à l’entreprise de signaler les contenus potentiellement problématiques et abusifs sans rien révéler d’autre. Mais l’initiative était controversée et a rapidement suscité de nombreuses critiques de la part des chercheurs en matière de confidentialité et de sécurité et des groupes de défense des droits numériques qui craignaient que la capacité de surveillance elle-même ne soit détournée pour porter atteinte à la confidentialité et à la sécurité des utilisateurs d’iCloud dans le monde. Début septembre 2021, Apple a annoncé qu’il suspendrait le déploiement de la fonctionnalité pour “collecter les commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité pour enfants d’une importance cruciale”. En d’autres termes, un lancement était toujours à venir. Maintenant, la société affirme qu’en réponse aux commentaires et aux conseils qu’elle a reçus, l’outil de détection de CSAM pour les photos iCloud est mort.
Au lieu de cela, Apple a déclaré à WIRED cette semaine qu’elle concentre ses efforts et ses investissements anti-CSAM sur ses fonctionnalités de “sécurité des communications”, que la société a initialement annoncées en août 2021 et lancées en décembre dernier. Les parents et les soignants peuvent opter pour les protections via les comptes familiaux iCloud. Les fonctionnalités fonctionnent dans Siri, la recherche Spotlight d’Apple et la recherche Safari pour avertir si quelqu’un regarde ou recherche du matériel d’abus sexuel d’enfants et fournit des ressources sur place pour signaler le contenu et demander de l’aide. De plus, le cœur de la protection est la sécurité de la communication pour les messages, que les soignants peuvent configurer pour fournir un avertissement et des ressources aux enfants s’ils reçoivent ou tentent d’envoyer des photos contenant de la nudité. L’objectif est d’arrêter l’exploitation des enfants avant qu’elle ne se produise ou ne s’enracine et de réduire la création de nouveaux CSAM.
“Après une consultation approfondie avec des experts pour recueillir des commentaires sur les initiatives de protection de l’enfance que nous avons proposées l’année dernière, nous approfondissons notre investissement dans la fonctionnalité de sécurité des communications que nous avons mise à disposition pour la première fois en décembre 2021”, a déclaré la société à WIRED dans un communiqué. “Nous avons en outre décidé de ne pas aller de l’avant avec notre outil de détection CSAM précédemment proposé pour iCloud Photos. Les enfants peuvent être protégés sans que les entreprises ne passent au peigne fin les données personnelles, et nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d’autres entreprises pour aider à protéger les jeunes, à préserver leur droit à la vie privée et à faire d’Internet un endroit plus sûr pour les enfants et pour nous tous. .”
La mise à jour CSAM d’Apple s’accompagne de son annonce d’aujourd’hui selon laquelle la société élargit considérablement ses offres de chiffrement de bout en bout pour iCloud, notamment en ajoutant la protection des sauvegardes et des photos stockées sur le service cloud. Les experts en sécurité des enfants et les technologues travaillant pour lutter contre le CSAM se sont souvent opposés à un déploiement plus large du chiffrement de bout en bout, car il rend les données des utilisateurs inaccessibles aux entreprises technologiques, ce qui rend plus difficile pour elles de scanner et de signaler le CSAM. Les organismes d’application de la loi du monde entier ont également cité le grave problème de l’abus sexuel des enfants en s’opposant à l’utilisation et à l’expansion du chiffrement de bout en bout, bien que bon nombre de ces organismes aient toujours été hostiles au chiffrement de bout en bout en général parce qu’il peut rendre certaines enquêtes plus difficiles. Cependant, les recherches ont constamment montré que le chiffrement de bout en bout est un outil de sécurité essentiel pour la protection des droits de l’homme et que les inconvénients de sa mise en œuvre ne l’emportent pas sur les avantages.
La sécurité des communications pour les messages est facultative et analyse les images jointes que les utilisateurs envoient et reçoivent sur leurs appareils pour déterminer si une photo contient de la nudité. La fonctionnalité est conçue pour qu’Apple n’ait jamais accès aux messages, le cryptage de bout en bout proposé par Messages n’est jamais rompu et Apple n’apprend même pas qu’un appareil a détecté de la nudité.
La société a déclaré à WIRED que bien qu’elle ne soit pas prête à annoncer un calendrier spécifique pour l’extension de ses fonctionnalités de sécurité des communications, la société travaille à l’ajout de la capacité de détecter la nudité dans les vidéos envoyées via Messages lorsque la protection est activée. La société prévoit également d’étendre l’offre au-delà de Messages à ses autres applications de communication. En fin de compte, l’objectif est de permettre aux développeurs tiers d’intégrer les outils de sécurité des communications dans leurs propres applications. Plus les fonctionnalités peuvent proliférer, dit Apple, plus il est probable que les enfants obtiendront les informations et le soutien dont ils ont besoin avant d’être exploités.