Ne faites confiance à rien de ce que vous voyez sur le Web, disent les experts

Table des matières:

Ne faites confiance à rien de ce que vous voyez sur le Web, disent les experts
Ne faites confiance à rien de ce que vous voyez sur le Web, disent les experts
Anonim

Clé à emporter

  • Une nouvelle étude révèle que les gens ne peuvent pas séparer les images générées par l'IA des vraies.
  • Les participants ont jugé les images générées par l'IA plus fiables.
  • Les experts pensent que les gens devraient cesser de faire confiance à tout ce qu'ils voient sur Internet.
Image
Image

L'adage "voir c'est croire" n'est plus pertinent lorsqu'il s'agit d'Internet, et les experts disent que ça ne va pas s'améliorer de sitôt.

Une étude récente a révélé que les images de visages générées par l'intelligence artificielle (IA) étaient non seulement très photoréalistes, mais qu'elles semblaient également plus vertueuses que les vrais visages.

"Notre évaluation du photoréalisme des visages synthétisés par l'IA indique que les moteurs de synthèse sont passés par l'étrange vallée et sont capables de créer des visages indiscernables et plus fiables que les vrais visages", ont observé les chercheurs.

Cette personne n'existe pas

Les chercheurs, le Dr Sophie Nightingale de l'Université de Lancaster et le professeur Hany Farid de l'Université de Californie à Berkeley, ont mené les expériences après avoir reconnu les menaces très médiatisées des contrefaçons profondes, allant de toutes sortes de fraudes en ligne aux revigorantes campagnes de désinformation.

"La conséquence peut-être la plus pernicieuse est que, dans un monde numérique dans lequel toute image ou vidéo peut être truquée, l'authenticité de tout enregistrement gênant ou importun peut être remise en question", ont affirmé les chercheurs.

Ils ont fait valoir que bien qu'il y ait eu des progrès dans le développement de techniques automatiques pour détecter les contenus profondément faux, les techniques actuelles ne sont pas suffisamment efficaces et précises pour suivre le flux constant de nouveaux contenus mis en ligne. Cela signifie qu'il appartient aux consommateurs de contenu en ligne de trier le vrai du faux, suggère le duo.

Jelle Wieringa, un défenseur de la sensibilisation à la sécurité chez KnowBe4, a accepté. Il a déclaré à Lifewire par e-mail qu'il était extrêmement difficile de lutter contre les contrefaçons réelles elles-mêmes sans technologie spécialisée. "[Les technologies d'atténuation] peuvent être coûteuses et difficiles à mettre en œuvre dans des processus en temps réel, ne détectant souvent un deepfake qu'après coup."

Avec cette hypothèse, les chercheurs ont réalisé une série d'expériences pour déterminer si les participants humains peuvent distinguer les visages synthétisés à la pointe de la technologie des visages réels. Lors de leurs tests, ils ont constaté que malgré une formation pour aider à reconnaître les contrefaçons, le taux de précision ne s'améliorait qu'à 59 %, contre 48 % sans formation.

Cela a conduit les chercheurs à tester si les perceptions de fiabilité pouvaient aider les gens à identifier des images artificielles. Dans une troisième étude, ils ont demandé aux participants d'évaluer la fiabilité des visages, pour découvrir que la note moyenne pour les visages synthétiques était de 7.7 % plus digne de confiance que la note moyenne des vrais visages. Le nombre peut sembler peu, mais les chercheurs affirment qu'il est statistiquement significatif.

Deeper Fakes

Deep fakes étaient déjà une préoccupation majeure, et maintenant les eaux ont été encore plus brouillées par cette étude, qui suggère que de telles fausses images de haute qualité pourraient ajouter une toute nouvelle dimension aux escroqueries en ligne, par exemple, en aidant à créer plus faux profils en ligne convaincants.

"La seule chose qui motive la cybersécurité est la confiance que les gens ont dans les technologies, les processus et les personnes qui tentent de les protéger", a expliqué Wieringa. "Les deep fakes, en particulier lorsqu'ils deviennent photoréalistes, sapent cette confiance et, par conséquent, l'adoption et l'acceptation de la cybersécurité. Cela peut conduire les gens à se méfier de tout ce qu'ils perçoivent."

Image
Image

Chris Hauk, champion de la confidentialité des consommateurs chez Pixel Privacy, est d'accord. Dans un bref échange d'e-mails, il a déclaré à Lifewire que le deep fake photoréaliste pouvait causer des « ravages » en ligne, en particulier de nos jours où toutes sortes de comptes sont accessibles à l'aide de la technologie d'identification avec photo.

Mesure corrective

Heureusement, Greg Kuhn, directeur de l'IdO chez Prosegur Security, déclare qu'il existe des processus qui peuvent éviter une telle authentification frauduleuse. Il a déclaré à Lifewire par e-mail que les systèmes d'identification basés sur l'IA comparent une personne vérifiée à une liste, mais beaucoup ont des garanties intégrées pour vérifier la "vivacité".

"Ces types de systèmes peuvent exiger et guider un utilisateur pour effectuer certaines tâches telles que sourire ou tourner la tête vers la gauche, puis vers la droite. Ce sont des choses que les visages générés statiquement ne pourraient pas effectuer", a partagé Kuhn.

Les chercheurs ont proposé des lignes directrices pour réglementer leur création et leur diffusion afin de protéger le public des images de synthèse. Pour commencer, ils suggèrent d'incorporer des filigranes profondément enracinés dans les réseaux de synthèse d'images et de vidéos eux-mêmes pour garantir que tous les supports synthétiques peuvent être identifiés de manière fiable.

Jusqu'ici, Paul Bischoff, défenseur de la vie privée et rédacteur en chef de la recherche infosec chez Comparitech, affirme que les gens sont seuls."Les gens devront apprendre à ne pas faire confiance aux visages en ligne, tout comme nous avons tous (espérons-le) appris à ne pas faire confiance aux noms d'affichage dans nos e-mails", a déclaré Bischoff à Lifewire par e-mail.

Conseillé: