Pourquoi les logiciels de lecture d'émotions pourraient violer votre vie privée

Table des matières:

Pourquoi les logiciels de lecture d'émotions pourraient violer votre vie privée
Pourquoi les logiciels de lecture d'émotions pourraient violer votre vie privée
Anonim

Clé à emporter

  • Zoom aurait déclaré qu'il utiliserait l'IA pour évaluer le sentiment ou le niveau d'engagement d'un utilisateur.
  • Des groupes de défense des droits humains demandent à Zoom de repenser son plan en raison de problèmes de confidentialité et de sécurité des données.
  • Certaines entreprises utilisent également un logiciel de détection des émotions lors des entretiens pour évaluer si l'utilisateur est attentif.
Image
Image

L'utilisation croissante de l'intelligence artificielle (IA) pour surveiller les émotions humaines suscite des inquiétudes en matière de confidentialité.

Les organisations de défense des droits humains demandent à Zoom de ralentir son projet d'introduction de l'IA d'analyse des émotions dans son logiciel de visioconférence. La société aurait déclaré qu'elle utiliserait l'IA pour évaluer le sentiment ou le niveau d'engagement d'un utilisateur.

"Les experts admettent que l'analyse des émotions ne fonctionne pas", a écrit le consortium de groupes de défense des droits de l'homme, dont l'ACLU, dans une lettre à Zoom. "Les expressions faciales sont souvent déconnectées des émotions sous-jacentes, et la recherche a montré que même les humains ne peuvent pas lire ou mesurer avec précision les émotions des autres de temps en temps. Le développement de cet outil ajoute de la crédibilité à la pseudoscience et met votre réputation en jeu."

Zoom n'a pas immédiatement répondu à une demande de commentaire de Lifewire.

Gardez un œil sur vos émotions

Selon l'article sur le protocole, le système de surveillance Zoom appelé Q for Sales vérifierait le ratio de temps de conversation des utilisateurs, le décalage du temps de réponse et les changements fréquents de haut-parleurs pour suivre le degré d'engagement de la personne. Zoom utiliserait ces données pour attribuer des scores entre zéro et 100, les scores les plus élevés indiquant un engagement ou un sentiment plus élevé.

Les groupes de défense des droits de l'homme affirment que le logiciel pourrait discriminer les personnes handicapées ou certaines ethnies en supposant que tout le monde utilise les mêmes expressions faciales, schémas de voix et langage corporel pour communiquer. Les groupes suggèrent également que le logiciel pourrait constituer un risque pour la sécurité des données.

Image
Image

«La récolte de données profondément personnelles pourrait faire de toute entité qui déploie cette technologie une cible pour espionner les autorités gouvernementales et les pirates malveillants», selon la lettre.

Julia Stoyanovich, professeur d'informatique et d'ingénierie à l'Université de New York, a déclaré à Lifewire dans une interview par e-mail qu'elle était sceptique quant aux affirmations derrière la détection des émotions.

"Je ne vois pas comment une telle technologie peut fonctionner - l'expression émotionnelle des gens est très individuelle, très dépendante de la culture et très spécifique au contexte", a déclaré Stoyanovich."Mais, peut-être plus important encore, je ne vois pas pourquoi nous voudrions que ces outils fonctionnent. En d'autres termes, nous aurions encore plus de problèmes s'ils fonctionnaient bien. Mais peut-être même avant de penser aux risques, nous devrions demander-quels sont les avantages potentiels d'une telle technologie ?"

Zoom n'est pas la seule entreprise à utiliser un logiciel de détection d'émotions. Theo Wills, directeur principal de la confidentialité chez Kuma LLC, une société de conseil en confidentialité et sécurité, a déclaré à Lifewire par e-mail qu'un logiciel de détection des émotions est utilisé lors des entretiens pour évaluer si l'utilisateur est attentif. Il est également mis à l'essai dans l'industrie des transports pour surveiller si les conducteurs semblent somnolents, sur des plates-formes vidéo pour évaluer l'intérêt et personnaliser les recommandations, et dans des didacticiels éducatifs pour déterminer si une méthode d'enseignement particulière est attrayante.

Wills a soutenu que la controverse autour des logiciels de surveillance des émotions est plus une question d'éthique des données que de confidentialité. Elle a dit qu'il s'agissait pour le système de prendre des décisions concrètes basées sur des intuitions.

"Avec cette technologie, vous assumez maintenant la raison pour laquelle j'ai une expression particulière sur mon visage, mais l'impulsion derrière une expression varie considérablement en raison de facteurs tels que l'éducation sociale ou culturelle, les comportements familiaux, les expériences passées ou la nervosité pour le moment », a ajouté Wills. "Baser l'algorithme sur une hypothèse est intrinsèquement erroné et potentiellement discriminatoire. De nombreuses populations ne sont pas représentées dans la population sur laquelle les algorithmes sont basés, et une représentation appropriée doit être priorisée avant que cela ne soit utilisé."

Considérations pratiques

Les problèmes soulevés par les logiciels de suivi des émotions peuvent être aussi bien pratiques que théoriques. Matt Heisie, co-fondateur de Ferret.ai, une application basée sur l'IA qui fournit des informations sur les relations, a déclaré à Lifewire dans un e-mail que les utilisateurs doivent demander où l'analyse des visages est effectuée et quelles données sont stockées. L'étude est-elle effectuée sur des enregistrements d'appels, traités dans le cloud ou sur l'appareil local ?

En outre, Heisie a demandé, au fur et à mesure que l'algorithme apprend, quelles données il collecte sur le visage ou les mouvements d'une personne qui pourraient potentiellement être dissociées de l'algorithme et utilisées pour recréer la biométrie de quelqu'un ? L'entreprise stocke-t-elle des instantanés pour vérifier ou valider les apprentissages de l'algorithme, et l'utilisateur est-il informé de ces nouvelles données dérivées ou images stockées potentiellement collectées à partir de leurs appels ?

"Ce sont tous des problèmes que de nombreuses entreprises ont résolus, mais il y a aussi des entreprises qui ont été secouées par un scandale lorsqu'il s'est avéré qu'elles n'avaient pas fait cela correctement", a déclaré Heisie. "Facebook est le cas le plus important d'une entreprise qui a annulé sa plate-forme de reconnaissance faciale en raison de préoccupations concernant la confidentialité des utilisateurs. La société mère Meta extrait désormais les fonctionnalités AR d'Instagram dans certaines juridictions comme l'Illinois et le Texas en raison des lois sur la confidentialité entourant les données biométriques."

Conseillé: