Clé à emporter
- Instagram vient d'introduire une fonctionnalité de contrôle du contenu sensible pour permettre aux utilisateurs de décider ce qu'ils préfèrent voir sur la plate-forme.
- Les plates-formes de médias sociaux ont toutes des contrôles de contenu et des politiques pour limiter le contenu qu'elles jugent nuisible et offensant.
- Les experts disent que chaque utilisateur a un niveau de tolérance différent à ce qui est considéré comme offensant et que contrôler votre contenu est aussi simple que d'utiliser l'algorithme.
Instagram a introduit une fonctionnalité de contrôle du contenu sensible plus tôt cette semaine, mais les politiques de contrôle du contenu comme celle-ci ont tendance à être insuffisantes sur les réseaux sociaux.
La nouvelle fonctionnalité de la plate-forme vous permet de choisir "autoriser", "limiter" ou encore resserrer les contrôles afin de voir encore moins de contenu "nocif ou sensible" sur votre flux. Tous les sites de médias sociaux ont mis en place une politique de contenu, mais les experts disent que ces politiques ne protégeront finalement pas tout le monde de tout, et ne devraient pas.
"En ce qui concerne les sites de médias sociaux eux-mêmes, dans quelle mesure ils contrôlent ce contenu marginal se résume à leurs propres objectifs commerciaux et aux mesures qu'ils voient - en d'autres termes, qui constitue la majeure partie des membres de leur communauté, " Mary Brown, directrice du marketing et des médias sociaux chez Merchant Maverick, a déclaré à Lifewire dans un e-mail.
Définir le contenu préjudiciable
Les contrôles de contenu préjudiciable ne sont pas nouveaux sur les réseaux sociaux: presque toutes les plateformes ont une politique visant à limiter certains types de contenu sensible ou préjudiciable. La politique de Twitter supprime automatiquement les tweets contenant du contenu abusif destiné à harceler ou intimider quelqu'un. La plate-forme a également mis à jour ses règles contre les contenus haineux en 2019 pour inclure tous les tweets déshumanisant les personnes en raison de leur religion.
Facebook a également mis en place des pratiques de modération de contenu. Par exemple, le réseau social n'autorise pas les images d'automutilation ou les contenus glorifiant les troubles alimentaires. La plate-forme a également réprimé l'autorisation d'allégations de santé sensationnelles dans les flux des utilisateurs, telles que les allégations de santé exagérées ou trompeuses concernant les vaccins.
Mais les experts affirment que ces politiques laissent aux utilisateurs plus de questions que de réponses, car le "contenu préjudiciable" peut différer de ce que chaque plate-forme le définit.
Qui détermine ce qui est offensant ? Les utilisateurs devront-ils choisir parmi une liste de sujets qu'ils trouvent offensants ? Facebook et Instagram décideront-ils de ce qui est offensant ? Comment l'offensive sera-t-elle même définie ? » Andrew Selepak, professeur de médias sociaux à l'Université de Floride, a déclaré à Lifewire dans un e-mail.
Instagram définit le contenu sensible comme "des messages qui n'enfreignent pas nécessairement nos règles, mais qui pourraient potentiellement déranger certaines personnes, comme des messages qui peuvent être sexuellement suggestifs ou violents."
Brown a ajouté que les plates-formes ne pouvaient pas réussir à protéger tout le monde de ce type de contenu, car chacun est différent dans sa tolérance et sa préférence pour le contenu.
"Chaque personne a un niveau de tolérance différent, des attitudes différentes, des goûts différents", a-t-elle déclaré. "Chaque individu qui télécharge ou utilise un site de médias sociaux a intrinsèquement accepté qu'il pourrait tomber sur du contenu qui est en marge des directives de contenu acceptables ou des normes communautaires de cette application."
De nombreux utilisateurs de médias sociaux ont également critiqué la nouvelle fonctionnalité d'Instagram, affirmant qu'elle empêcherait le contenu d'activistes et d'artistes (sur des sujets controversés ou la publication d'art contenant de la nudité) d'atteindre un public.
Contrôle du contenu
Brown note que c'est une occasion manquée que la nouvelle fonctionnalité d'Instagram soit difficile à trouver dans l'application, ce qui rend d'autant plus difficile pour les gens de contrôler le contenu avec lequel ils sont à l'aise, qu'ils veuillent voir plus ou moins de contenu "sensible".
"S'il s'agissait d'une fonctionnalité qu'Instagram voulait mieux mettre en évidence, l'option pourrait être intégrée dans la même interface sur les publications ou les bobines où vous pouvez cliquer sur "Signaler". Ce serait un moyen plus efficace d'introduire cette sensibilité particulière contrôle aux personnes qui utilisent probablement déjà cette fonction », a-t-elle déclaré.
Les fonctionnalités supplémentaires sont excellentes, mais en fin de compte, l'algorithme examine ce avec quoi nous nous engageons pour déterminer ce qu'il faut recommander ensuite.
La fonctionnalité d'Instagram vous permet théoriquement de contrôler ce que vous voyez plutôt que de mettre en œuvre une politique générale sur le contenu comme sur de nombreuses autres plates-formes. Mais en fin de compte, les utilisateurs de médias sociaux peuvent décider ce qu'ils veulent voir sur leurs flux sans ces politiques définies par la plate-forme.
"Les fonctionnalités supplémentaires sont excellentes, mais en fin de compte, l'algorithme examine ce avec quoi nous nous engageons pour déterminer ce qu'il faut recommander ensuite", a écrit Eric Chow, consultant en chef chez Mashman Ventures, à Lifewire dans un e-mail..
Chow a ajouté que faire quelque chose d'aussi simple que de faire savoir à la plateforme que vous ne voulez pas voir un type de contenu (une fonctionnalité dont disposent de nombreuses plateformes) est le moyen le plus efficace de prendre le contrôle entre nos mains.
Les utilisateurs doivent assumer leurs responsabilités et être conscients de la façon dont ils interagissent avec leur contenu. Plus nous aimons, commentons, partageons et enregistrons du contenu sur un sujet particulier, plus il nous sera présenté,” dit-il.