Pourquoi la technologie de numérisation d'images d'Apple n'est pas du tout privée

Table des matières:

Pourquoi la technologie de numérisation d'images d'Apple n'est pas du tout privée
Pourquoi la technologie de numérisation d'images d'Apple n'est pas du tout privée
Anonim

Clé à emporter

  • La nouvelle politique d'Apple contre les contenus pédopornographiques suscite la controverse parmi les utilisateurs et les experts en matière de protection de la vie privée.
  • La technologie fonctionne en scannant des images dans iCloud pour CSAM et en utilisant l'apprentissage automatique pour identifier les photos explicites dans Messages.
  • Les experts disent que peu importe à quel point Apple dit que sa technologie de numérisation est privée, elle permet toujours en fin de compte d'ouvrir une porte dérobée où tout peut arriver.
Image
Image

Apple a récemment introduit une nouvelle technologie pour repérer le matériel pédopornographique (CSAM), mais elle suscite plus de critiques que d'éloges de la part de la communauté de la protection de la vie privée.

Bien qu'Apple ait été précédemment saluée comme l'une des seules grandes entreprises de technologie qui se soucient réellement de la confidentialité des utilisateurs, la nouvelle technologie de numérisation CSAM introduite la semaine dernière y met un gros problème. Les experts disent que même si Apple promet la confidentialité des utilisateurs, la technologie mettra finalement tous les utilisateurs d'Apple en danger.

"Apple s'engage sur une pente très glissante; ils ont étoffé un outil qui risque d'être détourné par le gouvernement et d'être utilisé à mauvais escient par de mauvais acteurs", a déclaré Farah Sattar, fondatrice et chercheuse en sécurité chez DCRYPTD. à Lifewire dans une interview par e-mail.

Le plan d'Apple n'est pas privé

La nouvelle technologie fonctionne de deux manières: premièrement, en scannant une image avant qu'elle ne soit sauvegardée sur iCloud - si une image correspond aux critères de CSAM, Apple reçoit les données du bon cryptographique. L'autre partie utilise l'apprentissage automatique sur l'appareil pour identifier et brouiller les images sexuellement explicites que les enfants reçoivent via Messages.

Apple s'engage sur une pente très glissante; ils ont étoffé un outil qui risque d'être détourné par le gouvernement et d'être utilisé à mauvais escient par de mauvais acteurs.

Les experts craignent la fonctionnalité Messages car elle mettrait effectivement fin au cryptage de bout en bout (E2EE) qu'Apple a défendu.

"L'introduction par Apple de l'analyse côté client est une atteinte à la vie privée, car cela rompt efficacement l'E2EE", a déclaré Sattar.

"Le but d'E2EE est de rendre un message illisible pour toute partie à l'exception de l'expéditeur et du destinataire, mais l'analyse côté client permettra à des tiers d'accéder au contenu en cas de correspondance. Cela crée un précédent selon lequel votre les données sont E2EE… jusqu'à ce qu'elles ne le soient plus."

Alors qu'Apple a déclaré dans une page FAQ récemment publiée répondant aux préoccupations des gens concernant sa nouvelle politique qu'elle ne modifiera pas les garanties de confidentialité des messages et n'aura pas accès aux communications, les organisations se méfient toujours des promesses d'Apple.

"Étant donné que la détection d'une "image sexuellement explicite" utilisera l'apprentissage automatique sur l'appareil pour analyser le contenu des messages, Apple ne pourra plus honnêtement appeler iMessage "crypté de bout en bout", " l'Electronic Frontier Foundation (EFF) a écrit en réponse à la politique d'Apple.

"Apple et ses partisans peuvent affirmer que l'analyse avant ou après qu'un message soit crypté ou décrypté garde intacte la promesse "de bout en bout", mais ce serait une manœuvre sémantique pour dissimuler un changement tectonique dans l'entreprise. position vers un cryptage fort."

Image
Image

Possibilité d'abus

La principale inquiétude de nombreux experts est l'existence d'une porte dérobée qui, quoi qu'Apple en dise, est toujours ouverte à des abus potentiels.

"Bien que cette politique ne soit destinée qu'aux utilisateurs de moins de 13 ans, cet outil est également propice à une utilisation abusive, car il n'y a aucune garantie que l'utilisateur ait réellement moins de 13 ans. Une telle initiative présente un risque pour les jeunes LGBTQ+ et les personnes dans des relations abusives, car elle peut exister sous la forme d'un stalkerware ", a déclaré Sattar.

EFF a déclaré que la moindre pression extérieure (en particulier de la part du gouvernement) ouvrirait la porte à des abus et a souligné des cas où cela se produisait déjà. Par exemple, EFF a déclaré que les technologies conçues initialement pour analyser et hacher le CSAM ont été réutilisées pour créer une base de données de contenu "terroriste" à laquelle les entreprises peuvent contribuer et accéder pour interdire ce contenu.

"Tout ce qu'il faudrait pour élargir la porte dérobée étroite qu'Apple est en train de construire est une extension des paramètres d'apprentissage automatique pour rechercher des types de contenu supplémentaires, ou un ajustement des drapeaux de configuration à analyser, pas seulement pour les enfants, mais les comptes de n'importe qui ", a déclaré EFF.

Edward Snowden a même condamné la nouvelle technologie d'Apple comme un "problème de sécurité nationale" et "désastreux", et son organisation, Freedom of the Press Foundation, est l'une des nombreuses à avoir signé une nouvelle lettre appelant Apple à mettre fin à cette politique avant même qu'elle ne commence.

La lettre a été signée par plus de 7 400 organisations et experts en matière de sécurité et de confidentialité, appelant Apple à arrêter immédiatement cette technologie et à publier une déclaration réaffirmant l'engagement de l'entreprise en faveur du chiffrement de bout en bout et de la confidentialité des utilisateurs.

"La voie actuelle d'Apple menace de saper des décennies de travail des technologues, des universitaires et des défenseurs des politiques visant à ce que de solides mesures de protection de la vie privée soient la norme sur la majorité des appareils électroniques grand public et des cas d'utilisation", lit-on dans la lettre.

Le temps nous dira comment Apple envisage de mettre en œuvre cette technologie malgré l'énorme controverse qui l'entoure, mais les affirmations de l'entreprise sur la priorité accordée à la confidentialité ne seront certainement plus jamais les mêmes.

Conseillé: