Pourquoi un nouveau logiciel de profilage soulève des problèmes de confidentialité

Table des matières:

Pourquoi un nouveau logiciel de profilage soulève des problèmes de confidentialité
Pourquoi un nouveau logiciel de profilage soulève des problèmes de confidentialité
Anonim

Clé à emporter

  • Les logiciels qui utilisent l'intelligence artificielle pour établir le profil des personnes soulèvent des problèmes de confidentialité.
  • Cryfe combine des techniques d'analyse comportementale avec l'intelligence artificielle.
  • La société chinoise Alibaba a récemment fait l'objet de critiques après avoir déclaré que son logiciel pouvait détecter les Ouïghours et d'autres minorités ethniques.
Image
Image

Un nouveau logiciel alimenté par l'intelligence artificielle et destiné aux employeurs pour dresser le profil de leurs employés soulève des problèmes de confidentialité.

Une nouvelle plate-forme logicielle, appelée Cryfe, combine des techniques d'analyse comportementale avec l'intelligence artificielle. Le développeur affirme qu'en analysant des indices infimes, le logiciel peut révéler les intentions des gens lors d'entretiens. Mais certains observateurs disent que Cryfe et d'autres types de logiciels qui analysent le comportement peuvent envahir la vie privée.

"Les entreprises s'appuient de plus en plus sur l'IA pour le profilage", a déclaré l'expert en IA Vaclav Vincale dans une interview par e-mail. "Mais même les humains qui codent ces algorithmes, et encore moins une personne du service client que vous joignez au téléphone, ne pourraient pas vous dire pourquoi ils font une recommandation donnée."

Plus que des mots

Cryfe a été développé par une société suisse dont les employés ont été formés par le FBI aux techniques de profilage. "Cryfe, dans toute communication interpersonnelle, n'écoute pas seulement les mots, mais identifie d'autres signaux émis par l'humain tels que les émotions, les micro-expressions et tous les gestes", a déclaré Caroline Matteucci, la fondatrice de Cryfe, dans une interview par e-mail.

"Lors d'un recrutement, par exemple, cela nous permet d'aller chercher la vraie personnalité de notre interlocuteur."

Matteucci a déclaré que la vie privée des utilisateurs est protégée car l'entreprise est transparente sur le fonctionnement de son logiciel. "L'utilisateur, avant de pouvoir utiliser la plateforme, doit accepter les conditions générales", a-t-elle précisé.

"Il y est précisé que l'utilisateur ne peut en aucun cas soumettre une interview pour analyse sans avoir reçu l'accord écrit de l'interlocuteur."

Cryfe n'est pas le seul logiciel basé sur l'IA qui prétend analyser le comportement humain. Il y a aussi Humantic, qui prétend analyser le comportement des consommateurs. "La technologie révolutionnaire d'Humantic prédit le comportement de chacun sans qu'il soit nécessaire de passer un test de personnalité", selon le site Web de l'entreprise.

Image
Image

L'entreprise prétend utiliser l'IA pour créer des profils psychologiques de candidats basés sur les mots qu'ils utilisent dans les CV, les lettres de motivation, les profils LinkedIn et tout autre texte qu'ils soumettent.

Les logiciels comportementaux se sont heurtés à des contestations judiciaires dans le passé. En 2019, Bloomberg Law a signalé que la Commission pour l'égalité des chances en matière d'emploi (EEOC) avait examiné des cas de discrimination illégale présumée en raison de décisions liées aux ressources humaines assistées par algorithme.

"Tout va devoir être réglé car l'avenir du recrutement est l'IA", a déclaré l'avocat Bradford Newman à Bloomberg.

Certains observateurs contestent le fait que les entreprises utilisent un logiciel de suivi comportemental, car celui-ci n'est pas assez précis. Dans une interview, Nigel Duffy, leader mondial de l'intelligence artificielle au sein de la société de services professionnels EY, a déclaré à InformationWeek qu'il était troublé par les logiciels qui utilisent des quiz sur les réseaux sociaux et affectent la détection.

"Je pense qu'il existe une littérature vraiment convaincante sur le potentiel de détection d'affect, mais je crois comprendre que la façon dont cela est souvent mis en œuvre est plutôt naïve", a-t-il déclaré.

"Les gens tirent des conclusions que la science n'appuie pas vraiment [comme] décider que quelqu'un est un bon employé potentiel parce qu'il sourit beaucoup ou décider que quelqu'un aime vos produits parce qu'il sourit beaucoup."

Les entreprises chinoises auraient le profil des minorités

Le suivi comportemental pourrait également avoir des objectifs plus sinistres, selon certains groupes de défense des droits humains. En Chine, le géant du marché en ligne Alibaba a récemment fait sensation après avoir prétendu que son logiciel pouvait détecter les Ouïghours et d'autres minorités ethniques.

Le New York Times a rapporté que l'activité de cloud computing de l'entreprise disposait d'un logiciel capable de numériser des images et des vidéos.

Mais même les humains qui codent ces algorithmes… ne pourraient pas vous dire pourquoi ils font une recommandation donnée.

Le Washington Post a également récemment rapporté que Huawei, une autre entreprise technologique chinoise, avait testé un logiciel capable d'alerter les forces de l'ordre lorsque ses caméras de surveillance détectaient des visages ouïghours.

Une demande de brevet déposée en 2018 par Huawei aurait affirmé que "l'identification des attributs des piétons est très importante" dans la technologie de reconnaissance faciale."Les attributs de l'objet cible peuvent être le sexe (homme, femme), l'âge (comme les adolescents, les personnes d'âge moyen, les personnes âgées) [ou] la race (Han, Ouïghour)", a déclaré l'application.

Un porte-parole de Huawei a déclaré à CNN Business que la fonction d'identification ethnique n'aurait "jamais fait partie de l'application".

L'utilisation croissante de l'intelligence artificielle pour trier de grandes quantités de données ne peut que soulever des problèmes de confidentialité. Vous ne saurez peut-être jamais qui ou quoi vous analyse la prochaine fois que vous passerez un entretien d'embauche.

Conseillé: