La capacité d'Alexa à imiter des parents décédés peut être la chose la plus effrayante de tous les temps

Table des matières:

La capacité d'Alexa à imiter des parents décédés peut être la chose la plus effrayante de tous les temps
La capacité d'Alexa à imiter des parents décédés peut être la chose la plus effrayante de tous les temps
Anonim

Clé à emporter

  • L'assistant vocal Alexa d'Amazon peut copier une voix avec aussi peu qu'une minute d'audio.
  • Vous pourriez demander à Alexa de lire une histoire avec la voix d'un parent décédé.
  • C'est la même idée que les deep fakes, utilisés uniquement pour les pouvoirs du bien.
Image
Image

Le dernier gadget d'Amazon Alexa est d'apprendre à imiter la voix d'un être cher décédé, afin qu'il puisse vous parler d'outre-tombe.

Alexa n'a besoin que d'une minute d'audio parlé pour imiter une voix de manière convaincante. Amazon le présente comme une fonctionnalité réconfortante qui peut vous mettre en contact avec vos proches, mais cela pourrait aussi être une expérience assez effrayante. Et cela montre à quel point il est facile de créer un faux son profond suffisamment bon pour nous tromper, même lorsque la voix est celle que nous connaissons très bien.

"Amazon est définitivement entré dans un territoire plutôt unique et bizarre avec son annonce qu'Alexa serait bientôt en mesure d'apprendre et d'utiliser bientôt la voix de parents décédés", a déclaré Bill Mann, expert en confidentialité chez Restore Privacy. Lifewire par e-mail. "Pour certaines personnes, ce n'est pas effrayant du tout. En fait, cela peut être plutôt touchant."

Ghost in the Machine

Dans le cadre de sa conférence annuelle re:MARS, Amazon présente la fonctionnalité dans une courte vidéo. Dans ce document, un enfant demande à Alexa si sa grand-mère peut continuer à lui lire "Le magicien d'Oz", l'œuvre du domaine public préférée de tous les enfants. Et c'est un moment assez émouvant. Il est difficile de ne pas ressentir d'émotions humaines lorsque mamie commence à lire.

"Les humains luttent contre la mortalité, en particulier dans la culture occidentale. Pendant des siècles, nous avons essayé de trouver des moyens de commémorer les morts, des masques mortuaires aux mèches de cheveux, en passant par les vieilles photos et le visionnage de vieux films", Andrew Selepak, professeur de médias sociaux à l'Université de Floride, a déclaré à Lifewire par e-mail. "Deepfakes utilise les dernières technologies pour créer un nouveau masque mortuaire d'un être cher décédé. Mais, selon le point de vue de chacun, est-ce effrayant ou un moyen de commémorer et de garder quelqu'un que vous aimez après sa mort ?"

Mais un memento mori peut être à la fois réconfortant et effrayant. L'ami d'un membre de la famille est mort, mais vous pouvez toujours l'entendre parler. Cela n'aide pas qu'Alexa ait une histoire de comportement étrange et parfois terrifiant. En 2018, alors que le chroniqueur d'opinion du NYT Farhad Manjoo se mettait au lit, son Amazon Echo "a commencé à gémir, comme un enfant hurlant dans un rêve de film d'horreur".

Peu de temps après, Amazon a reconnu qu'Alexa riait parfois à haute voix, ce qui, avec les adolescents et les caves, est le film d'horreur 101.

On ne peut que se demander ce que vous ressentiriez si Alexa faisait les mêmes tours avec la voix de grand-mère.

Deep Fake

La facilité apparente avec laquelle Alexa apprend à imiter une voix nous conduit à des utilisations plus néfastes du clonage de voix: les deep fakes.

Image
Image

"Deepfake audio n'est pas nouveau, même s'il est peu compris et peu connu. La technologie est disponible depuis des années pour recréer la voix d'un individu avec l'intelligence artificielle et l'apprentissage en profondeur en utilisant relativement peu d'audio réel de la personne", dit Selepak. "Une telle technologie pourrait également être dangereuse et destructrice. Une personne perturbée pourrait recréer la voix d'un ex-petit ami ou d'une petite amie décédée et utiliser le nouvel audio pour dire des choses haineuses et blessantes."

C'est juste dans le contexte d'Alexa. Un faux son profond pourrait aller bien au-delà de cela, convaincre les gens que des politiciens éminents croient des choses qu'ils ne croient pas, par exemple. Mais d'un autre côté, plus nous nous habituons à ces contrefaçons profondes - peut-être sous la forme de ces voix d'Alexa - plus nous serons sceptiques quant aux contrefaçons les plus néfastes. Là encore, étant donné à quel point il est facile de répandre des mensonges sur Facebook, peut-être pas.

Amazon n'a pas précisé si cette fonctionnalité arrive sur Alexa ou s'il s'agit simplement d'une démonstration technologique. J'espère que c'est le cas. La technologie est à son meilleur lorsqu'elle est utilisée d'une manière humaniste comme celle-ci, et même si la réaction facile est de l'appeler effrayant, comme le dit Selepak, ce n'est vraiment pas si différent de regarder de vieilles vidéos ou d'écouter des messages vocaux enregistrés, comme un personnage dans une émission télévisée paresseusement scénarisée.

Et si la technologie pour les contrefaçons profondes est facilement disponible, pourquoi ne pas l'utiliser pour nous réconforter ?

Conseillé: