Après de nombreuses critiques de la part des critiques et des utilisateurs, Apple retarde ses mesures contre la m altraitance des enfants.
En août, le géant de la technologie a initialement annoncé une nouvelle politique qui utilise la technologie pour repérer les images potentielles d'abus d'enfants dans iCloud et Messages, mais des inquiétudes l'ont suivie. Les experts ont averti que même si Apple promettait la confidentialité des utilisateurs, la technologie mettrait finalement tous les utilisateurs d'Apple en danger.
Vendredi, Apple a annoncé qu'il retarderait complètement le déploiement de la technologie pour apporter des améliorations et garantir pleinement la confidentialité des utilisateurs.
"Sur la base des commentaires des clients, des groupes de défense, des chercheurs et autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité pour enfants d'une importance cruciale", a déclaré Apple dans un déclaration mise à jour sur son site Web.
La technologie de détection de matériel d'abus sexuels sur des enfants était censée être disponible plus tard cette année dans le déploiement d'iOS 15, mais on ne sait plus quand, ou si, la fonctionnalité fera ses débuts.
La nouvelle technologie fonctionnerait de deux manières: premièrement, en numérisant une image avant qu'elle ne soit sauvegardée sur iCloud. Si cette image correspond aux critères de CSAM, Apple recevrait ces données. L'autre partie de la technologie utilise l'apprentissage automatique pour identifier et brouiller les images sexuellement explicites que les enfants reçoivent via Messages.
Cependant, après l'annonce de la nouvelle politique, les défenseurs de la vie privée et les groupes ont déclaré qu'Apple ouvrait essentiellement une porte dérobée que les mauvais acteurs pourraient abuser.
Pour répondre à ces préoccupations, Apple a publié une page FAQ peu de temps après avoir annoncé la technologie CSAM. Apple a expliqué que la technologie ne scannerait pas toutes les photos stockées sur un appareil, ne briserait pas le cryptage de bout en bout dans les messages et ne signalerait pas à tort des personnes innocentes aux forces de l'ordre.