Apple étend sa détection de nudité sur l’appareil pour lutter contre le CSAM

En décembre, Apple a annoncé qu’il tuait un outil controversé de numérisation de photos iCloud que la société avait conçu pour lutter contre le matériel d’abus sexuels sur des enfants (CSAM) d’une manière qui, selon elle, préservait la vie privée. Apple a ensuite déclaré que ses efforts anti-CSAM se concentreraient plutôt sur ses fonctionnalités de «sécurité de la communication» pour les enfants, initialement annoncées en août 2021. Et lors de la conférence mondiale des développeurs de la société à Cupertino aujourd’hui, Apple a lancé des extensions du mécanisme, y compris une fonctionnalité supplémentaire adapté aux adultes.

Communication Safety analyse les messages localement sur les appareils des jeunes utilisateurs pour signaler le contenu que les enfants reçoivent ou envoient dans des messages sur iOS qui contiennent de la nudité. Apple a annoncé aujourd’hui que la fonctionnalité s’étend également aux messages vidéo FaceTime, aux affiches de contact dans l’application Téléphone, à l’outil de sélection de photos où les utilisateurs choisissent les photos ou les vidéos à envoyer et à AirDrop. Le traitement sur l’appareil de la fonctionnalité signifie qu’Apple ne voit jamais le contenu signalé, mais à partir de cet automne, la sécurité des communications sera activée par défaut pour tous les comptes enfants (enfants de moins de 13 ans) dans un plan de partage familial. Les parents peuvent choisir de désactiver la fonctionnalité s’ils le souhaitent.

“La sécurité des communications est une fonctionnalité pour laquelle nous voulons vraiment donner à l’enfant un moment de pause et, espérons-le, être interrompu dans ce qui est effectivement une conversation de toilettage, ou du moins pourrait l’être”, déclare Erik Neuenschwander, responsable de la confidentialité des utilisateurs chez Apple. “Donc, il est censé être à haute friction. C’est censé être qu’il y a une réponse qui, selon nous, est probablement la bonne dans la situation de cet enfant, qui est de ne pas avancer, et nous voulons vraiment nous assurer qu’ils sont éduqués.

Apple a déclaré en décembre qu’il prévoyait de mettre à disposition une interface de programmation d’applications (API) afin que les développeurs tiers puissent facilement intégrer la sécurité des communications dans leurs applications et l’utiliser pour détecter le matériel d’abus sexuel d’enfants, ou CSAM. L’API, connue sous le nom de framework d’analyse de contenu sensible, est désormais disponible pour les développeurs. Des plateformes comme Discord ont déjà annoncé leur intention de l’intégrer à leurs applications iOS.

Une invite de sécurité des communications pour le compte d’un enfant.

Photographie : Pomme

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire