Faking Videos is Easy, Deep Nostalgia Shows

Table des matières:

Faking Videos is Easy, Deep Nostalgia Shows
Faking Videos is Easy, Deep Nostalgia Shows
Anonim

Clé à emporter

  • Deep Nostalgia est un nouveau programme qui vous permet d'animer de vieilles photos.
  • Cette technologie montre à quel point il est facile de créer des vidéos de personnes faisant des choses qu'elles n'ont jamais faites dans la vraie vie.
  • La technologie de contrefaçon profonde est déjà si sophistiquée qu'il est difficile de dire si une vidéo est réelle ou générée par ordinateur, selon un expert.
Image
Image

Méfiez-vous des nouveaux logiciels qui peuvent créer ce que l'on appelle des "deep fakes", dans lesquels des vidéos de personnes réelles peuvent être simulées, avertissent les experts.

Deep Nostalgia, publié par la société MyHeritage, est à la mode sur les réseaux sociaux, les utilisateurs réanimant tout le monde, des compositeurs célèbres aux parents décédés. Le logiciel suscite des réactions mitigées, certaines personnes ravies par les créations et d'autres les trouvant effrayantes. Cette technologie montre à quel point il est facile de créer des vidéos de personnes faisant des choses qu'elles n'ont jamais faites dans la vraie vie.

"La technologie Deepfake devient de plus en plus sophistiquée et dangereuse", a déclaré Aaron Lawson, directeur adjoint du laboratoire Speech Technology and Research (STAR) de SRI International, dans une interview par e-mail. "Cela est en partie dû à la nature de l'intelligence artificielle. Là où la technologie "traditionnelle" nécessite du temps et de l'énergie humains pour s'améliorer, l'IA peut apprendre d'elle-même.

"Mais la capacité de l'IA à se développer est une épée à double tranchant", a poursuivi Lawson. "Si une IA est créée pour faire quelque chose de bienveillant, tant mieux. Mais lorsqu'une IA est conçue pour quelque chose de malveillant comme des contrefaçons profondes, le danger est sans précédent."

Le logiciel donne vie aux photos

Le site Web de généalogie MyHeritage a présenté le moteur d'animation le mois dernier. La technologie, connue sous le nom de Deep Nostalgia, permet aux utilisateurs d'animer des photos via le site Web MyHeritage. Une société appelée D-ID a conçu des algorithmes pour MyHeritage qui recréent numériquement le mouvement des visages humains. Le logiciel applique les mouvements aux photographies et modifie les expressions faciales pour se déplacer comme le font habituellement les visages humains, selon le site Web MyHeritage.

Deep Nostalgia montre que la technologie deep-fake devient de plus en plus accessible, a déclaré Lior Shamir, professeur d'informatique à la Kansas State University, dans une interview par e-mail. Il progresse rapidement et élimine même les différences subtiles entre la vidéo et l'audio factices et réels.

"Il y a également eu des progrès substantiels vers le deep fake en temps réel, ce qui signifie que des vidéos deep fake convaincantes sont générées au moment de la communication vidéo", a déclaré Shamir."Par exemple, on peut avoir une réunion Zoom avec une certaine personne, tout en voyant et en entendant la voix d'une personne complètement différente."

Il existe également un nombre croissant de deep fakes basés sur le langage, a déclaré Jason Corso, directeur du Stevens Institute for Artificial Intelligence au Stevens Institute of Technology, dans une interview par e-mail. "Générer des paragraphes entiers de faux texte profond vers un agenda spécifique est assez difficile, mais les progrès modernes dans le traitement approfondi du langage naturel le rendent possible", a-t-il ajouté.

Comment détecter un deep fake

Bien que la technologie de détection profonde des faux en soit encore à ses balbutiements, il existe plusieurs façons d'en repérer un, a déclaré Corso, en commençant par la bouche.

"La variabilité de l'apparence de l'intérieur de la bouche lorsque quelqu'un parle est très élevée, ce qui rend difficile l'animation de manière convaincante", a expliqué Corso. "Cela peut être fait, mais c'est plus dur que le reste de la tête. Remarquez comment les vidéos Deep Nostalgia ne démontrent pas la capacité de la photographie à dire "Je t'aime" ou une autre phrase lors de la création de faux profonds. Cela nécessiterait l'ouverture et la fermeture de la bouche, ce qui est très difficile pour la fausse génération profonde."

Ghosting est un autre cadeau, a ajouté Corso. Si vous voyez un flou sur les bords de la tête, cela est dû à "un mouvement rapide ou à un nombre limité de pixels disponibles dans l'image source. Une oreille peut partiellement disparaître momentanément, ou les cheveux peuvent devenir flous là où vous ne vous y attendriez pas", a-t-il déclaré. dit.

Vous pouvez également faire attention aux variations de couleur lorsque vous essayez de repérer une fausse vidéo profonde, comme une ligne nette sur le visage, avec des couleurs plus foncées d'un côté et plus claires de l'autre.

"Les algorithmes informatiques peuvent souvent détecter ces modèles de distorsion", a déclaré Shamir. "Mais les algorithmes de deep fake progressent rapidement. Il est inévitable que des lois strictes soient nécessaires pour se protéger des deep fakes et des dommages qu'ils peuvent facilement causer."

Conseillé: