IA pourrait bientôt être capable de lire vos émotions

Table des matières:

IA pourrait bientôt être capable de lire vos émotions
IA pourrait bientôt être capable de lire vos émotions
Anonim

Clé à emporter

  • Un nombre croissant d'entreprises utilisent l'IA pour lire vos émotions.
  • L'IA de lecture des émotions pourrait rendre la technologie plus facile à utiliser.
  • Certains experts s'inquiètent des implications pour la vie privée des entreprises qui collectent vos données émotionnelles.
Image
Image

L'intelligence artificielle (IA) pourrait bientôt en savoir plus sur vous que vous ne le pensez.

Une startup appelée Hume AI prétend utiliser des algorithmes pour mesurer les émotions à partir d'expressions faciales, vocales et verbales. C'est l'une des nombreuses entreprises qui prétendent lire les émotions humaines à l'aide d'ordinateurs. Mais certains experts disent que le concept soulève des problèmes de confidentialité.

"Celui qui contrôle ces systèmes et ces plateformes aura beaucoup d'informations sur les individus", a déclaré Bob Bilbruck, un conseiller en démarrage technologique, à Lifewire dans une interview par e-mail. "Ils seront en mesure de créer des profils pour ces personnes qui pourront être utilisés à des fins monétaires, de contrôle des résultats ou de suivi macroéconomique potentiellement plus néfaste des personnes et de la société."

Lecture faciale ?

Hume dit que le secret pour apprendre à l'IA à lire les émotions est le big data. La société affirme qu'elle forme son IA sur des ensembles de données massifs d'Amérique du Nord, d'Afrique, d'Asie et d'Amérique du Sud.

"Notre vision est un monde où l'IA traduit les connaissances scientifiques en de nouvelles façons d'améliorer l'expérience émotionnelle humaine", écrit l'entreprise sur son site Web. "La conscience émotionnelle est l'ingrédient manquant nécessaire pour créer des algorithmes de médias sociaux qui optimisent le bien-être des utilisateurs…"

Hume est l'une des nombreuses entreprises qui tentent d'exploiter les données pour mieux comprendre les émotions humaines. Les entreprises utilisent la surveillance émotionnelle pour essayer de concevoir des publicités efficaces, a déclaré Oleksii Shaldenko, professeur qui étudie l'IA à l'Institut polytechnique Igor Sikorsky de Kyiv en Ukraine, à Lifewire dans une interview par e-mail. Une technologie similaire est utilisée pour évaluer le ton de la voix dans les centres d'appels, surveiller le comportement des conducteurs dans les automobiles et mesurer l'attitude des téléspectateurs dans les sociétés de diffusion et de production.

Il y a des avantages potentiels importants pour les utilisateurs à ce que l'IA lise leurs émotions, a déclaré Ryan Monsurate, directeur technique d'AI Dynamics, à Lifewire dans une interview par e-mail. Il a dit qu'une utilisation serait de concevoir des interfaces qui réduisent la probabilité que les gens soient frustrés ou en colère contre leur technologie.

Un problème plus difficile à résoudre serait de générer des réponses émotionnelles appropriées aux émotions perçues par l'IA interagissant avec les humains, a déclaré Monsurate.

"Beaucoup d'entre nous ont parlé à nos assistants du renseignement, et bien que la qualité de la tonalité et de l'intonation de leur voix se soit améliorée au cours de la dernière décennie, ils ne sont pas meilleurs pour communiquer d'une manière qui transmet différentes émotions, " il ajouta."Je vois des modèles génératifs capables de générer des voix synthétiques avec émotion et avec des émotions adaptées au contexte à mesure que les modèles grandissent en taille et en complexité, ou que nous faisons de nouvelles percées dans le domaine de l'apprentissage en profondeur."

Mais l'avantage le plus immédiat de la technologie de lecture des émotions pourrait être pour les entreprises qui essaient de vendre des choses. Le système SenseR, par exemple, permet aux commerçants de personnaliser l'expérience en magasin. Les ordinateurs surveillent et analysent les expressions et le langage corporel des acheteurs. Les employés peuvent utiliser les résultats pour pousser une vente dans la bonne direction lorsqu'ils sont invités par le personnel de vente en magasin, a déclaré Fariha Rizwan, une experte en informatique et en relations publiques, à Lifewire dans une interview par e-mail.

Image
Image

"Du point de vue de l'analyse de la vente au détail, l'utilisation de la vision artificielle pour suivre les acheteurs humains peut donner à un détaillant des informations sur les durées d'engagement en magasin, les niveaux d'intérêt basés sur les cartes thermiques, les parcours en magasin et les données démographiques des acheteurs", a ajouté Rizwan.

À qui appartiennent vos émotions ?

Alors que les entreprises se tournent de plus en plus vers l'IA pour lire les émotions, il existe de nombreux pièges potentiels en matière de confidentialité. Les technologies de reconnaissance faciale qui pilotent les systèmes de lecture des émotions ont tendance à fonctionner dans des lieux publics et privés sans le consentement des personnes suivies, en sauvegardant leurs données et parfois en vendant ces données au plus offrant, a déclaré Rizwan.

"Nous ne savons pas non plus dans quelle mesure ces systèmes sont protégés contre les cyberattaques, plaçant potentiellement la carte faciale d'une personne entre les mains d'un mauvais acteur", a ajouté Rizwan. "Ces préoccupations ont amorcé un changement dans le renforcement du contrôle, de la surveillance, de la divulgation de la confidentialité et de la responsabilité."

Les plus grandes préoccupations en matière de confidentialité ne sont pas liées à l'IA, mais plutôt aux cadres et réglementations sous-jacents de partage d'informations déjà en place, a fait valoir Monsurate. Si les entreprises peuvent monétiser vos données et les utiliser pour manipuler votre comportement, alors comprendre votre état émotionnel les aidera à mieux le faire.

"Ce dont nous avons besoin, ce sont des lois pour dissuader ce comportement en premier lieu, quels que soient les outils qu'ils utilisent pour atteindre leurs objectifs", a ajouté Monsurate. "Ce ne sont pas les outils, mais les mauvais acteurs et nos lois actuelles sur la confidentialité sont terriblement inadéquates."

Conseillé: