Clé à emporter
- Le comité de surveillance de Facebook a demandé des règles plus claires en matière de désinformation sur le site Web des médias sociaux.
- Le conseil d'administration a actuellement annulé plusieurs décisions prises par Facebook pour supprimer les messages qu'il considérait comme de la désinformation ou des discours de haine, mais qui n'en étaient pas vraiment.
- Un besoin de définitions plus claires de ce qui est et n'est pas de la désinformation ou du discours de haine est nécessaire, en particulier avec la portée internationale de Facebook.
Le comité de surveillance de Facebook, qui a été mis en place pour superviser davantage la suppression et la modération des publications sur le site Web, a annulé certaines décisions antérieures prises concernant les publications supprimées, soulignant la nécessité de définitions et de règles plus claires.
Le comité de surveillance a pris en charge ses cinq premiers cas en décembre 2020. Alors que l'un des messages inclus dans l'examen provenait des États-Unis, au total, les messages provenaient de quatre continents différents, qui pouvaient tous voir les déclarations faites en manières complètement différentes. Pour cette raison, les politiques mises en place par Facebook doivent être concises et doivent fonctionner avec la communauté sur laquelle les outils de modération pourraient se concentrer.
"L'activité d'"examen indépendant" de Facebook doit être cohérente au-delà des frontières internationales", nous a écrit Jim Isaak, ancien président de l'Institut des ingénieurs électriciens et électroniciens et vétéran de l'industrie technologique depuis 30 ans. e-mail. "Mais ce qu'est un" discours de haine "aux États-Unis pourrait être défini comme patriotique dans d'autres sociétés autocratiques, ce qui accroît la complexité de ce qui est fait."
Lignes dans le sable
Ce besoin de cohérence et de règles plus concises entre déjà en jeu. Sur les cinq cas que le conseil de surveillance de Facebook a pris en charge en décembre, le groupe a décidé d'annuler quatre des cas, dont deux montrent clairement la nécessité d'une meilleure modération.
Dans l'un des cas annulés, le conseil a statué en faveur d'une femme dont la publication Instagram sur le cancer du sein a été automatiquement supprimée du site Web pour avoir enfreint sa politique sur la nudité adulte et l'activité sexuelle.
Bien que Facebook ait déjà restauré la photo, le conseil s'est opposé à ce qu'elle soit supprimée en premier lieu. Le conseil a même recommandé à Facebook de mettre en place un système d'appel permettant aux utilisateurs de voir quand un message a été supprimé, pourquoi il a été supprimé, et même de suggérer des moyens de parler avec un être humain pour rechercher une solution.
Le conseil d'administration a constaté que, bien que la femme ait partagé une publication qui présentait des mamelons féminins découverts et visibles, la photo n'avait pas enfreint les directives de la communauté d'Instagram. La norme sur la nudité et l'activité sexuelle des adultes que Facebook maintient dans ses normes communautaires autorise la nudité lorsque l'utilisateur cherche à sensibiliser le public pour une raison médicale ou autre.
Un autre message, qui a été partagé depuis le Myanmar, incluait un langage sur les musulmans qui, selon le conseil, pouvait être considéré comme offensant, mais n'a pas atteint le niveau de discours de haine pour justifier sa suppression ou son infraction aux règles.
C'est là que les choses commencent à devenir particulièrement délicates.
Quelle est la direction ?
"Facebook opère à l'international", a déclaré Isaak à Lifewire par e-mail. "Chaque juridiction a ses propres règles, et Facebook peut être tenu responsable en vertu de celles d'autres pays."
Facebook doit garder à l'esprit toutes les règles des territoires dans lesquels il opère lors de la mise en place de nouvelles politiques. En rendant les politiques peu claires, Facebook laisse la place à des erreurs qui pourraient obliger le conseil de surveillance à annuler d'autres cas à l'avenir.
Avec la propagation du discours de haine et de la désinformation qui devient si répandue, en particulier sur les réseaux sociaux comme Facebook et Twitter, il est important que ces entreprises proposent des directives claires qui peuvent ensuite être utilisées pour modérer la communauté.
Qu'est-ce que le "discours de haine" aux États-Unis pourrait être défini comme patriotique dans d'autres sociétés autocratiques…
Bien sûr, il existe toujours d'autres options pour aider à atténuer ce genre de problèmes. En fait, l'un des cas que le conseil était initialement censé superviser en décembre a été retiré du rôle suite à la suppression du message par l'utilisateur.
La modération générée par les utilisateurs est quelque chose que nous avons déjà vu réussir sur des sites Web comme Wikipédia, et récemment Twitter, lui-même, a intensifié en lançant Birdwatch, un système de modération alimenté par la communauté pour aider à arrêter la propagation de la désinformation.
Ces méthodes ont cependant d'autres problèmes, c'est pourquoi il sera essentiel d'obtenir une base de référence standard pour les attentes de la communauté pour que Facebook offre une meilleure modération de ses applications et sites Web à l'avenir.