Apple explique davantage le processus impliqué dans ses nouvelles mesures contre la m altraitance des enfants.
Le géant de la technologie a annoncé la semaine dernière une nouvelle politique qui utilise la technologie pour repérer les images potentielles d'abus d'enfants dans iCloud et Messages. The Verge rapporte qu'Apple a publié ces derniers jours une page FAQ qui explique comment la technologie est utilisée et à quoi ressemblent les aspects de confidentialité après que les gens ont exprimé leurs inquiétudes concernant les nouvelles mesures.
Apple a déclaré que sa technologie se limite spécifiquement à la détection de matériel d'exploitation sexuelle d'enfants (CSAM) et ne peut pas être transformée en outils de surveillance.
"L'un des défis majeurs dans cet espace est de protéger les enfants tout en préservant la vie privée des utilisateurs", a écrit Apple sur la nouvelle page FAQ.
"Grâce à cette nouvelle technologie, Apple apprendra que des photos CSAM connues sont stockées dans iCloud Photos où le compte stocke une collection de CSAM connus. Apple n'apprendra rien sur les autres données stockées uniquement sur l'appareil."
La technologie fonctionne en numérisant une image avant qu'elle ne soit sauvegardée sur iCloud. Ensuite, si une image correspond aux critères de CSAM, Apple reçoit les données du bon cryptographique.
Des groupes tels que l'Electronic Frontier Foundation ont exprimé leurs inquiétudes concernant la technologie la semaine dernière, affirmant que la technologie pourrait être "réutilisée pour créer une base de données de contenu" terroriste "à laquelle les entreprises peuvent contribuer et accéder dans le but d'interdire tel contenu."
L'un des principaux défis de cet espace est de protéger les enfants tout en préservant la vie privée des utilisateurs.
Cependant, la page FAQ détaillée d'Apple répond à certaines de ces préoccupations en indiquant que la technologie ne numérisera pas toutes les photos stockées sur un appareil, ne cassera pas le cryptage de bout en bout dans les messages et qu'elle ne le ferait pas. signaler faussement des personnes innocentes aux forces de l'ordre.
The Verge note que la FAQ d'Apple ne répond pas aux préoccupations soulevées concernant la technologie utilisée pour analyser les messages et la manière dont l'entreprise garantit que l'analyse se concentre uniquement sur le CSAM.