La technologie Deepfake de Facebook ne nous sauvera pas, disent les experts

Table des matières:

La technologie Deepfake de Facebook ne nous sauvera pas, disent les experts
La technologie Deepfake de Facebook ne nous sauvera pas, disent les experts
Anonim

Clé à emporter

  • Alors que les deepfakes deviennent plus faciles à fabriquer, de nouvelles façons améliorées de les repérer sont devenues une priorité.
  • La technologie de détection de deepfake de Facebook utilise l'apprentissage automatique inversé pour découvrir si une vidéo est un deepfake ou non.
  • Les experts disent que l'utilisation de la technologie blockchain serait le meilleur moyen de voir si une vidéo est réelle ou non, car la méthode repose sur des données contextuelles.
Image
Image

Facebook est confiant dans son modèle d'apprentissage automatique pour lutter contre les deepfakes, mais les experts disent que l'apprentissage automatique ne nous évitera pas d'être dupé par les deepfakes.

Des entreprises comme Facebook, Microsoft et Google s'efforcent toutes d'empêcher les deepfakes de se propager sur le Web et les réseaux sociaux. Bien que les méthodes diffèrent, il existe une méthode potentielle infaillible pour repérer ces fausses vidéos: les blockchains.

"[Blockchains] vous donne juste beaucoup de potentiel pour valider le deepfake d'une manière qui est la meilleure forme de validation que je puisse voir ", Stephen Wolfram, fondateur et PDG de Wolfram Research et auteur de A New Kind of Science, a déclaré Lifewire au téléphone.

La technologie Deepfake-Spotting de Facebook

La technologie Deepfake a connu une croissance rapide au cours des dernières années. Les vidéos trompeuses utilisent des méthodes d'apprentissage automatique pour faire des choses comme superposer le visage de quelqu'un sur le corps d'une autre personne, modifier les conditions d'arrière-plan, fausser la synchronisation labiale, etc. Ils vont des parodies inoffensives à faire dire ou faire des célébrités ou des personnalités publiques quelque chose qu'ils n'ont pas fait.

Les experts disent que la technologie progresse rapidement et que les deepfakes deviendront de plus en plus convaincants (et plus faciles à créer) à mesure que la technologie deviendra plus largement disponible et plus innovante.

Image
Image

Facebook a récemment donné plus d'informations sur sa technologie de détection de deepfake en partenariat avec la Michigan State University. Le réseau social dit s'appuyer sur l'ingénierie inverse d'une seule image générée par l'intelligence artificielle au modèle génératif utilisé pour la produire.

Les chercheurs qui ont travaillé avec Facebook ont déclaré que la méthode repose sur la découverte des modèles uniques derrière le modèle d'IA utilisé pour générer un deepfake.

En généralisant l'attribution d'images à la reconnaissance d'ensembles ouverts, nous pouvons déduire plus d'informations sur le modèle génératif utilisé pour créer un deepfake qui va au-delà de la reconnaissance du fait qu'il n'a jamais été vu auparavant. Et en traçant les similitudes entre les modèles d'une collection de deepfakes, nous pourrions également dire si une série d'images provient d'une seule source », ont écrit les chercheurs Xi Yin et Tan Hassner dans le blog de Facebook sur sa méthode de détection des deepfakes.

Image
Image

Wolfram dit qu'il est logique que vous utilisiez l'apprentissage automatique pour repérer un modèle d'IA avancé (un deepfake). Cependant, il y a toujours de la place pour tromper la technologie.

"Je ne suis pas du tout surpris qu'il existe un moyen décent d'apprentissage automatique pour [détecter les deepfakes]", a déclaré Wolfram. "La seule question est que si vous faites suffisamment d'efforts, pouvez-vous le tromper ? Je suis sûr que vous le pouvez.”

Combattre les deepfakes d'une manière différente

Au lieu de cela, Wolfram a déclaré qu'il pensait que l'utilisation de la blockchain serait la meilleure option pour repérer avec précision certains types de deepfakes. Son opinion sur l'utilisation de la blockchain plutôt que sur l'apprentissage automatique remonte à 2019, et il a déclaré qu'en fin de compte, l'approche de la blockchain peut fournir une solution plus précise à notre problème de deepfake.

"Je m'attends à ce que les visionneuses d'images et de vidéos puissent vérifier régulièrement les blockchains (et les 'calculs de triangulation des données') un peu comme la façon dont les navigateurs Web vérifient maintenant les certificats de sécurité", a écrit Wolfram dans un article publié dans Scientific American.

Étant donné que les blockchains stockent les données dans des blocs qui sont ensuite enchaînés dans l'ordre chronologique, et que les blockchains décentralisées sont immuables, les données saisies sont irréversibles.

La seule question est si vous faites suffisamment d'efforts, pouvez-vous le tromper ? Je suis sûr que vous le pouvez.

Wolfram a expliqué qu'en plaçant une vidéo dans une blockchain, vous seriez en mesure de voir l'heure à laquelle elle a été prise, l'emplacement et d'autres informations contextuelles qui vous permettraient de savoir si elle a été modifiée de quelque manière que ce soit.

"En général, plus il y a de métadonnées qui contextualisent l'image ou la vidéo, plus vous avez de chances de pouvoir le dire", a-t-il déclaré. "Vous ne pouvez pas simuler l'heure sur une blockchain."

Cependant, Wolfram a déclaré que la méthode utilisée - qu'il s'agisse d'apprentissage automatique ou d'utilisation de la blockchain - dépend du type de deepfake contre lequel vous essayez de vous protéger (c'est-à-dire une vidéo de Kim Kardashian disant quelque chose de stupide ou une vidéo d'un politicien faisant une déclaration ou une suggestion).

"L'approche de la blockchain protège contre certains types de contrefaçons profondes, tout comme le traitement d'image par apprentissage automatique protège contre certains types de contrefaçons profondes", a-t-il déclaré.

L'essentiel, semble-t-il, est la vigilance de chacun d'entre nous lorsqu'il s'agit de lutter contre le déluge de deepfake à venir.

Conseillé: