Apple poursuivra sa fonction de détection de nudité et de protection des enfants dans l'application Messages pour iOS 15.2, mais les parents devront l'activer.
Lorsque Apple a dévoilé pour la première fois ses fonctionnalités de protection des enfants, ils ont reçu une réponse assez critique, ce qui a retardé le déploiement prévu. Le plus gros problème de confidentialité - Apple scanne les photos iCloud pour le matériel d'abus sexuels sur des enfants (CSAM) - est toujours en attente, mais selon Bloomberg, la mise à jour des messages devrait être publiée avec iOS 15.2. Apple dit qu'il ne sera pas activé par défaut, cependant, et que l'analyse d'image se produira sur l'appareil, de sorte qu'il n'aura pas accès à des matériaux potentiellement sensibles.
Selon Apple, une fois activée, la fonctionnalité utilisera l'apprentissage automatique sur l'appareil pour détecter si les photos envoyées ou reçues dans les messages contiennent du matériel explicite. Cela brouillera les images entrantes potentiellement explicites et avertira l'enfant ou lui donnera un avertissement s'il envoie quelque chose qui pourrait être explicite.
Dans les deux cas, l'enfant aura également la possibilité de contacter un parent et de lui dire ce qui se passe. Dans une liste de questions fréquemment posées, Apple indique que pour les comptes enfants de 12 ans et moins, l'enfant sera averti qu'un parent sera contacté s'il visualise/envoie du matériel explicite. Pour les comptes enfants âgés de 13 à 17 ans, l'enfant est averti du risque potentiel, mais les parents ne seront pas contactés.
Dans la même FAQ, Apple insiste sur le fait qu'aucune des informations ne sera partagée avec des tiers, y compris Apple, les forces de l'ordre ou le NCMEC (National Center for Missing & Exploited Children).
Ces nouvelles options de sécurité enfant pour Messages devraient être disponibles dans la prochaine mise à jour iOS 15.2, qui devrait sortir ce mois-ci, selon Macworld.