Clé à emporter
- Les programmes d'intelligence artificielle comme Cogito essaient d'enseigner aux humains l'empathie dans leurs relations avec les clients.
- Les experts ne sont pas d'accord sur la possibilité pour une machine d'enseigner l'empathie aux gens ou si elle trouve simplement des points de données.
- Certains experts craignent également qu'enseigner l'empathie à l'IA puisse priver l'humanité de cette émotion.
Imaginez que vous travaillez dans un centre d'appels et qu'un client appelle. Vous répondez, et tout de suite, les choses commencent à mal tourner. Le client est en colère et les tensions montent.
Vous commencez à dire des choses que vous pourriez regretter plus tard. Soudain, un message apparaît sur l'écran de votre ordinateur. "Empathy Cue-Pensez à ce que ressent le client. Essayez d'établir un lien."
Ce n'est pas une vraie personne qui vous dit quoi faire. C'est un message de Cogito, un programme d'intelligence artificielle conçu pour aider les travailleurs à comprendre les appelants frustrés et à améliorer les performances. Cogito fait partie d'un nombre croissant de programmes d'IA qui tentent d'enseigner l'empathie aux humains.
Il y a une ironie évidente ici. Les scientifiques humains tentent depuis des décennies de créer des ordinateurs plus réalistes. Maintenant, les machines nous disent comment nous comporter. Mais les logiciels peuvent-ils vraiment nous apprendre à être plus empathiques ? C'est un problème qui pourrait avoir de profondes implications alors que l'intelligence artificielle commence à imprégner la vie quotidienne.
L'IA imite le comportement humain
D'un point de vue technique, il est clair que l'IA peut détecter des indices sur la façon dont les humains se sentent et fournir des commentaires.
"L'IA et les systèmes d'apprentissage automatique sont très efficaces pour trouver des modèles dans les données", a déclaré Adam Poliak, chercheur postdoctoral en informatique au Barnard College, dans une interview par e-mail.
"Si nous donnons à une IA de nombreux exemples de texte empathique, l'IA peut découvrir des modèles et des indices qui évoquent ou démontrent l'empathie."
L'IA peut être programmée pour décomposer certains des comportements humains qui accompagnent l'empathie et rappeler aux humains de les exécuter, mais cela n'enseigne pas l'empathie.
L'IA qui analyse les réactions humaines peut aider à combler le fossé grandissant entre les personnes lorsque nous communiquons numériquement, a déclaré Bret Greenstein, un expert en intelligence artificielle chez Cognizant Digital Business, dans une interview par e-mail.
"Au cours de l'année dernière, le temps réel, la vidéo, la voix et la messagerie ont augmenté plus rapidement que n'importe qui aurait pu l'imaginer, et cela a entraîné d'énormes défis pour créer des relations véritablement empathiques sans passer de temps physique avec les gens", a-t-il ajouté.
L'IA peut aider à analyser et à évaluer des caractéristiques telles que le ton et l'émotion dans la parole, a déclaré Greenstein. "Cela peut aider la personne qui reçoit les communications à mieux comprendre ce que cela signifie, et aide la personne à 'parler' en montrant comment les messages peuvent être interprétés", a-t-il ajouté.
Alors que les entreprises se précipitent pour tirer profit des logiciels de formation à l'IA comme Cogito, la question de savoir si l'IA peut enseigner l'empathie aux humains reste ouverte. Et la réponse a peut-être autant à voir avec la philosophie qu'avec la technologie.
Ilia Delio est théologienne à l'Université Villanova dont le travail est centré sur l'intersection de la foi et de la science. Elle pense que l'IA peut enseigner l'empathie.
Delio a souligné qu'une équipe du MIT a construit des robots capables d'imiter les émotions humaines telles que le bonheur, la tristesse et la compassion. "Alors que les émotions robotiques sont programmées, les robots peuvent interagir avec les humains et ainsi établir ou renforcer des schémas neuronaux", a-t-elle déclaré.
Une machine peut-elle comprendre l'empathie ?
Les experts définissent au moins trois formes d'empathie, toutes impliquent la capacité de comprendre et d'entrer en relation avec une autre personne, a déclaré Karla Erickson, sociologue au Grinnell College dans l'Iowa et auteur du livre à paraître, Messy Humans: A Sociology of Human/Machine Relations, qui explore nos relations avec la technologie.
"Relationner n'est pas quelque chose que l'IA peut faire, et c'est la base de l'empathie", a déclaré Erickson dans une interview par e-mail.
"L'IA peut être programmée pour décomposer certains des comportements humains qui accompagnent l'empathie et rappeler aux humains de les exécuter, mais cela n'enseigne pas l'empathie. La relation, en particulier en termes d'empathie, nécessiterait que l'auditeur ait le contexte nécessaire pour raconter - par là, je veux dire que la "vie" d'une IA n'inclut pas la perte, le désir, l'espoir, la douleur ou la mort."
Cependant, les experts s'affrontent pour savoir si l'IA peut nous apprendre à faire preuve d'empathie. Une partie du problème est que tout le monde n'est pas d'accord sur ce que signifient même "empathie" ou "IA". Le terme intelligence artificielle est souvent évoqué, mais ce n'est actuellement pas le genre d'intelligence que nous considérons comme humaine.
C'est un pur travail d'ingénierie, et je ne me fais aucune illusion que l'IA en question, elle-même, ait des émotions ou comprenne véritablement les émotions.
"Les "indices d'empathie" n'ont rien à voir avec l'empathie", a déclaré Michael Spezio, professeur de psychologie, de neurosciences et de science des données au Scripps College, dans une interview par e-mail.
"Ce sont des indices de voix que les évaluateurs humains ont classés comme étant des voix de personnes irritées/ennuyées. Il s'agit donc simplement d'utiliser l'expertise humaine dans un modèle mathématique, puis d'affirmer que le modèle, construit sur l'expertise humaine, est intelligent. Des approches d'apprentissage automatique limitées comme celle-ci sont souvent présentées comme de l'IA sans être intelligentes."
À l'Institut polytechnique de Rensselaer, le laboratoire de Selmer Bringsjord construit des modèles mathématiques de l'émotion humaine. La recherche vise à créer une IA capable d'obtenir des résultats élevés aux tests d'intelligence émotionnelle et de les appliquer aux humains. Mais Bringsjord, un expert en IA, dit que tout enseignement que fait l'IA est par inadvertance.
"Mais c'est un pur travail d'ingénierie, et je ne me fais aucune illusion sur le fait que l'IA en question, elle-même, a des émotions ou comprend véritablement les émotions", a-t-il déclaré dans une interview par e-mail.
Qu'est-ce qui pourrait mal tourner ?
Alors que des entreprises comme Cogito voient un brillant avenir pour l'IA former des humains, d'autres observateurs sont plus prudents.
Supportiv, un service de santé mentale en ligne, utilise l'IA pour diriger chaque utilisateur, en fonction de toute pensée qu'il exprime, en temps réel, vers un groupe de soutien par les pairs spécifique à un sujet qui se réunit de manière dynamique pour les utilisateurs ayant des problèmes similaires.
Chaque groupe a un modérateur humain "super puissant" qui maintient le chat textuel sûr et sans troll et peut faire apparaître, encore une fois via l'IA, des ressources, des recommandations et des références pertinentes directement dans la conversation de groupe. Grâce à l'IA, Supportiv forme ses modérateurs à être aptes à repérer l'intensité des besoins émotionnels.
"L'empathie est un muscle que nous construisons", a déclaré Zara Dana, data scientist chez Supportiv, dans une interview par e-mail.
"Si nous commençons à utiliser une béquille pour marcher, nos muscles s'atrophieront. Je ne peux pas m'empêcher de me demander si un travailleur dépendant se sentirait en confiance si le système d'IA n'était pas en ligne un jour ? Est-il capable de le faire ? travailler efficacement ? Quels sont les effets à long terme sur les travailleurs ? Comment géreraient-ils des situations sociales complexes où l'IA est absente ?"
Même si l'utilisation de l'IA pour enseigner l'empathie fonctionne, que se passe-t-il lorsque nous commençons à trop compter sur l'IA pour entraîner nos émotions ? Un inconvénient possible est que les humains peuvent devenir plus attachés aux robots qu'aux autres personnes humaines parce que les robots ne peuvent pas choisir contre leur programme, a souligné Delio.
"La capacité humaine de libre arbitre place l'agence humaine dans une position plus ambiguë", a déclaré Delio. "Une personne peut être compatissante un jour et impitoyable le lendemain; un robot restera constamment compatissant à moins qu'il ne soit formé à faire autrement."
Il y a beaucoup de choses qui pourraient mal tourner si l'IA enseigne aux humains comment se comporter comme les autres, disent les experts.
Nous avons évolué pour devenir des animaux sociaux, et notre empathie est au cœur de notre capacité à nous connecter avec les autres et à nous soucier des collectifs auxquels nous appartenons.
"Sans surveillance humaine, l'élève pourrait apprendre quelque chose d'absolument dingue", a déclaré Bringsjord.
"Le ton et la hauteur de la voix ne sont que des corrélats comportementaux, sans aucun contenu. Des dollars aux beignets ma voix pendant l'enseignement en classe seraient lus par beaucoup… comme indiquant que je suis bouleversé, alors qu'en réalité, je ' Je suis juste passionné et j'ai le moins besoin d'empathie."
Si la formation des humains à l'IA se développe, nous pourrions en venir à en dépendre. Et ce n'est pas forcément une bonne chose.
"Cette formation dévalorise les compétences humaines, qui sont considérables, et détourne l'attention vers l'IA comme si c'était elle qui avait l'expertise", a déclaré Erickson."Nous avons évolué pour devenir des animaux sociaux, et notre empathie est au cœur de notre capacité à nous connecter avec les autres et à nous soucier des collectifs auxquels nous appartenons."