Le plan de l’UE visant à analyser les messages privés à la recherche d’images d’abus d’enfants met le chiffrement en danger

“Cela étant, il n’y a qu’une seule solution logique : l’analyse côté client où le contenu est examiné lorsqu’il est déchiffré sur l’appareil de l’utilisateur pour qu’il puisse le voir/le lire”, explique Woodward. L’année dernière, Apple a annoncé qu’il introduirait la numérisation côté client – la numérisation effectuée sur les iPhones plutôt que sur les serveurs d’Apple – pour vérifier les photos pour les contenus CSAM connus téléchargés sur iCloud. Cette décision a déclenché des protestations de la part de groupes de défense des droits civiques et même d’Edward Snowden concernant le potentiel de surveillance, ce qui a conduit Apple à suspendre ses plans un mois après les avoir initialement annoncés. (Apple a refusé de commenter cette histoire.)

Pour les entreprises technologiques, détecter le CSAM sur leurs plateformes et scanner certaines communications n’est pas nouveau. Les entreprises opérant aux États-Unis sont tenues de signaler tout CSAM qu’elles trouvent ou qui leur est signalé par les utilisateurs au National Center for Missing and Exploited Children (NCMEC), une organisation à but non lucratif basée aux États-Unis. Plus de 29 millions de rapports, contenant 39 millions d’images et 44 millions de vidéos, ont été transmis au NCMEC l’année dernière seulement. En vertu des nouvelles règles de l’UE, le Centre de l’UE recevra les rapports CSAM des entreprises technologiques.

“Beaucoup d’entreprises ne font pas la détection aujourd’hui”, a déclaré Johansson lors d’une conférence de presse présentant la législation. “Ce n’est pas une proposition sur le cryptage, c’est une proposition sur le matériel d’abus sexuel d’enfants”, a déclaré Johansson, ajoutant que la loi “ne concerne pas la lecture des communications” mais la détection des contenus d’abus illégaux.

À l’heure actuelle, les entreprises technologiques trouvent CSAM en ligne de différentes manières. Et la quantité de CSAM détectée augmente à mesure que les entreprises technologiques s’améliorent dans la détection et le signalement des abus, bien que certaines soient bien meilleures que d’autres. Dans certains cas, l’IA est utilisée pour traquer les CSAM jusqu’alors invisibles. Les doublons de photos et de vidéos d’abus existantes peuvent être détectés à l’aide de «systèmes de hachage», où le contenu d’abus se voit attribuer une empreinte digitale qui peut être repérée lorsqu’il est à nouveau téléchargé sur le Web. Plus de 200 entreprises, de Google à Apple, utilisent le système de hachage PhotoDNA de Microsoft pour analyser des millions de fichiers partagés en ligne. Cependant, pour ce faire, les systèmes doivent avoir accès aux messages et aux fichiers que les personnes envoient, ce qui n’est pas possible lorsque le chiffrement de bout en bout est en place.

“En plus de détecter le CSAM, des obligations existeront pour détecter la sollicitation d’enfants (“grooming”), ce qui ne peut que signifier que les conversations devront être lues 24h/24 et 7j/7″, explique Diego Naranjo, responsable de la politique au sein du groupe des libertés civiles. Droits numériques européens. « C’est une catastrophe pour la confidentialité des communications. Les entreprises seront invitées (via des ordonnances de détection) ou incitées (via des mesures d’atténuation des risques) à proposer des services moins sécurisés pour tous si elles souhaitent se conformer à ces obligations.

Les discussions sur la protection des enfants en ligne et sur la manière dont cela peut être fait avec un cryptage de bout en bout sont extrêmement complexes, techniques et combinées avec les horreurs des crimes contre les jeunes vulnérables. Une étude de l’Unicef, le fonds des Nations Unies pour l’enfance, publiée en 2020, indique que le cryptage est nécessaire pour protéger la vie privée des personnes, y compris les enfants, mais ajoute qu’il « entrave » les efforts visant à supprimer le contenu et à identifier les personnes qui le partagent. Pendant des années, les forces de l’ordre du monde entier ont poussé à créer des moyens de contourner ou d’affaiblir le cryptage. «Je ne dis pas que la vie privée à tout prix, et je pense que nous pouvons tous convenir que la maltraitance des enfants est odieuse», dit Woodward, «mais il doit y avoir un débat public et impartial sur la question de savoir si les risques de ce qui pourrait émerger valent la peine. la véritable efficacité dans la lutte contre la maltraitance des enfants.

De plus en plus, les chercheurs et les entreprises technologiques se concentrent sur les outils de sécurité qui peuvent exister parallèlement au chiffrement de bout en bout. Les propositions incluent l’utilisation de métadonnées à partir de messages cryptés (le qui, le comment, le quoi et le pourquoi des messages, et non leur contenu) pour analyser le comportement des personnes et potentiellement repérer la criminalité. Un rapport récent de l’organisation à but non lucratif Business for Social Responsibility, commandé par Meta, a révélé que le chiffrement de bout en bout est une force extrêmement positive pour la défense des droits humains des personnes. Il a suggéré 45 recommandations sur la façon dont le cryptage et la sécurité peuvent aller de pair et ne pas impliquer l’accès aux communications des personnes. Lorsque le rapport a été publié en avril, Lindsey Andersen, directrice adjointe de BSR pour les droits de l’homme, a déclaré à WIRED : “Contrairement à la croyance populaire, il y a en fait beaucoup de choses qui peuvent être faites même sans accès aux messages.”

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire