L'IA pourrait être la clé pour empêcher la diffusion de fausses nouvelles

Table des matières:

L'IA pourrait être la clé pour empêcher la diffusion de fausses nouvelles
L'IA pourrait être la clé pour empêcher la diffusion de fausses nouvelles
Anonim

Clé à emporter

  • Des chercheurs ont mis au point un système d'IA destiné à repérer et à signaler les fausses nouvelles.
  • Le modèle parcourt un ensemble de données publiques de fausses nouvelles, alerte les utilisateurs et les redirige vers des sources d'informations vérifiées.
  • Il existe un nombre croissant de méthodes d'IA pour contrer les fausses nouvelles en ligne.

Image
Image

L'intelligence artificielle (IA) contribue à freiner la propagation rapide de la désinformation en ligne, selon les experts.

Des chercheurs ont développé un système d'IA destiné à repérer et à signaler les fausses informations. Le modèle parcourt un ensemble de données publiques de fausses nouvelles, alerte les utilisateurs et les redirige vers des sources d'informations vérifiées. Cela fait partie d'un nombre croissant de méthodes d'IA pour contrer les fausses nouvelles.

"La quantité d'informations circulant sur Internet, en particulier les réseaux sociaux, est énorme et ne peut être gérée manuellement, en particulier avec une grande précision", Wael AbdAlmageed, professeur d'ingénierie informatique à l'Université de Californie du Sud, qui a développé Algorithmes d'IA pour détecter la désinformation visuelle, a déclaré Lifewire dans une interview par e-mail.

"Il est important de surveiller et de signaler la désinformation en temps réel car une fois que la désinformation commence à se propager, il est difficile de convaincre les gens que l'information est fausse, surtout lorsque la désinformation confirme nos préjugés", a-t-il ajouté.

Garder la réalité

La technique d'IA mise au point par une équipe de l'université australienne Macquarie pourrait aider à réduire la diffusion de fausses nouvelles. Le modèle peut être intégré à une application ou à un logiciel Web et propose des liens vers des informations « vraies » pertinentes qui correspondent aux intérêts de chaque utilisateur.

"Lorsque vous lisez ou regardez des actualités en ligne, des reportages sur des événements ou des sujets similaires vous sont souvent suggérés à l'aide d'un modèle de recommandation", a déclaré Shoujin Wang, un scientifique des données à l'Université Macquarie qui a travaillé sur la recherche, dans le communiqué de presse.

Wang dit que les nouvelles exactes et les fausses nouvelles pour le même événement utilisent souvent des styles de contenu différents, confondant les modèles informatiques en les traitant comme des nouvelles pour différents événements.

Le modèle de l'Université Macquarie "démêle" les informations de chaque actualité en deux parties: les signes indiquant si l'actualité est fausse et les informations spécifiques à l'événement indiquant le sujet ou l'événement dont traite l'actualité. Le modèle recherche ensuite des modèles dans la façon dont les utilisateurs passent d'une actualité à l'autre pour prédire quel événement d'actualité l'utilisateur pourrait être intéressé à lire ensuite.

L'équipe de recherche a formé le modèle sur un ensemble de données publiques de fausses nouvelles publiées sur GitHub, appelé FakeNewsNet, qui stocke les fausses nouvelles de PolitiFact et GossipCop ainsi que des données telles que le contenu des nouvelles, le contexte social et les historiques de lecture des utilisateurs.

La croissance des fausses nouvelles

Les fausses nouvelles sont un problème croissant, selon des études. NewsGuard a constaté qu'une partie importante de la croissance des médias sociaux provenait de sites Web peu fiables. En 2020, 17 % de l'engagement parmi les 100 principales sources d'information provenaient de sites classés rouges (généralement peu fiables), contre environ 8 % en 2019.

Subramaniam Vincent, directeur du journalisme et de l'éthique des médias au Markkula Center for Applied Ethics de l'Université de Santa Clara, a déclaré à Lifewire dans une interview par e-mail que l'IA peut aider à contrer la désinformation.

La technologie peut être utilisée pour "surveiller le comportement des comptes pour un partage orchestré corrélé à un discours de haine ou à des revendications déjà démystifiées ou démystifiées par des vérificateurs de faits ou des entités étatiques propagandistes connues ou des groupes naissants avec une augmentation rapide du nombre de membres", a expliqué Vincent. "L'IA peut également être utilisée avec la conception pour signaler le contenu de types particuliers afin d'ajouter de la friction avant qu'il ne soit partagé."

Image
Image

AbdAlmageed a déclaré que les réseaux sociaux doivent intégrer des algorithmes de détection de fausses nouvelles dans le cadre de leurs algorithmes de recommandation. L'objectif, a-t-il dit, est de "signaler les fausses nouvelles comme fausses ou inexactes s'ils ne veulent pas empêcher complètement le partage de fausses nouvelles".

Cela dit, bien que l'IA puisse être utile pour contrer les fausses nouvelles, l'approche a ses inconvénients, a déclaré Vincent. Le problème est que les systèmes d'IA ne peuvent pas comprendre le sens de la parole et de l'écriture humaines, ils seront donc toujours en retard.

"Plus l'IA sera précise avec certaines formes de discours de haine et de désinformation manifestes, plus la culture humaine passera à un code plus récent et à une transmission de signification souterraine pour s'organiser", a déclaré Vincent.

Wasim Khaled, PDG de la société de surveillance de la désinformation Blackbird. AI, a déclaré dans un e-mail à Lifewire que la désinformation en ligne est une menace en constante évolution. Les nouveaux systèmes d'IA doivent être capables de prédire où les fausses nouvelles apparaîtront ensuite.

"Dans la plupart des cas, vous ne pouvez pas créer un produit d'IA et l'appeler terminé", a déclaré Khaled. "Les schémas comportementaux changent avec le temps, et il est important que vos modèles d'IA suivent ces changements."

Conseillé: