Pourquoi c'est important
Diminuer le nombre de vidéos complotistes promues et monétisées automatiquement auprès des visiteurs réguliers de YouTube ne peut que contribuer à la lutte contre les fausses informations et les idéologies extrémistes.
Une nouvelle étude montre que le plan de YouTube visant à cesser de recommander des vidéos complotistes dans son flux vidéo régulier fonctionne.
" contenu limite" en janvier 2019.
Où en sommes-nous: les chercheurs de l'Université de Californie à Berkeley et de la Fondation Mozilla ont mis au point un système permettant de déterminer si une vidéo est "complotiste", puis a émulé l'algorithme Watch-Next de YouTube pour filtrer une année de ce que l'algorithme promouvrait activement. Marc Faddoula, Guillaume Chaslotb et Hany Farida ont découvert qu'il y avait en fait une réduction du nombre de vidéos conspirationnistes activement recommandées.
La réduction globale des recommandations complotistes est une tendance encourageante.
Ce n'est pas résolu: Alors que les chercheurs sont prudemment optimistes, ils se rendent compte que le problème de la radicalisation à travers de telles vidéos est un problème plus vaste. "Ceux qui ont l'habitude de regarder du contenu complotiste peuvent certainement encore expérimenter YouTube comme une bulle de filtre", ont-ils écrit, "renforcé par des recommandations personnalisées et des abonnements à des chaînes."
The bottom line: Les chercheurs notent également que la conception de l'algorithme de YouTube a encore plus d'impact sur le flux d'informations que, disons, un comité de rédaction d'un média plus traditionnel sortie. Un outil aussi puissant, affirment les auteurs de cette étude, devrait être soumis à plus de transparence et à des tests publics maintenant et à l'avenir.