La nouvelle IA de restriction d'âge de YouTube inquiète la communauté LGBTQ+

Table des matières:

La nouvelle IA de restriction d'âge de YouTube inquiète la communauté LGBTQ+
La nouvelle IA de restriction d'âge de YouTube inquiète la communauté LGBTQ+
Anonim

Clé à emporter

  • Le logiciel de restriction d'âge automatique de YouTube est préoccupant pour le contenu LGBTQ+ sur la plate-forme.
  • La société a été entachée par une controverse concernant les créateurs de contenu LGBTQ+ qui sèment le doute.
  • Les biais dans l'apprentissage automatique donnent du crédit à l'idée que sa mise en œuvre imparfaite des filtres est susceptible de restreindre injustement l'accès.
Image
Image

Avec une histoire de ciblage injuste des créateurs de contenu LGBTQ+ dans son processus de modération, la nouvelle technologie basée sur l'IA de YouTube est considérée comme une prochaine étape troublante pour le géant de la technologie.

Sur le blog officiel de YouTube la semaine dernière, la plateforme de partage de vidéos a dévoilé son intention de lancer un nouveau logiciel automatique pour "appliquer plus systématiquement les restrictions d'âge" aux vidéos jugées inappropriées pour les jeunes téléspectateurs.

Motivé par les récentes préoccupations concernant les enfants sur l'application, le nouveau système est basé sur un logiciel d'intelligence artificielle d'apprentissage automatique avec la possibilité de renoncer aux modérateurs humains pour un processus plus automatique. Le problème? Les systèmes automatisés de YouTube ont été accusés de distinguer le contenu et les créateurs LGBTQ+ simplement pour leur existence.

Même si ce n'est pas malveillant, ce que je ne pense pas, c'est un manque d'apport de voix diverses - ou du moins un manque de respect.

"L'apprentissage automatique est informé et créé par les humains, et il est possible que ces préjugés lui soient inhérents ou appris par la machine elle-même", a déclaré YouTuber Rowan Ellis lors d'un entretien téléphonique avec Lifewire. "Son parti pris en ce qui concerne le contenu [LGBTQ+] a été évident dans les expériences précédentes des YouTubers [LGBTQ+], et je n'ai vu aucune preuve que quoi que ce soit ait été fait pour empêcher que cela se produise."

Bébé, maintenant nous avons du mauvais sang

Ellis est une YouTubeuse qui crée du contenu éducatif avec un penchant féministe et queer, et en 2017, elle a publié une vidéo sur le mode restreint de l'entreprise. Comme première incursion dans la modération automatique du contenu, ce mode permettait aux utilisateurs de présélectionner éventuellement le "contenu potentiellement mature" à partir des suggestions et des recommandations de recherche.

Recueillant plus de 100 000 vues, elle pense qu'il y a eu un effort conscient pour empêcher sa chaîne d'être restreinte en raison de son opposition vocale aux excès de la nouvelle étape de YouTube vers la modération. D'autres utilisateurs de la plate-forme n'ont pas eu cette chance, et ils l'ont fait savoir à YouTube.

Un recours collectif contre YouTube a été déposé en août 2019 par un groupe de huit créateurs LGBTQ+ qui ont accusé la société de la Silicon Valley de restreindre les créateurs de vidéos et le contenu queer et trans. Le procès allègue que le site utilise "des pratiques illégales de réglementation, de distribution et de monétisation du contenu qui stigmatisent, restreignent, bloquent, démonétisent et nuisent financièrement aux plaignants LGBT et à la communauté LGBT dans son ensemble." Il est toujours en train de faire son chemin devant les tribunaux californiens.

L'apprentissage automatique est informé et créé par les humains, et il est possible que ces biais lui soient inhérents ou appris par la machine elle-même.

En juin de la même année, la plateforme a attiré l'attention des médias après avoir refusé de réprimander rapidement le commentateur conservateur populaire Steven Crowder pour une campagne de harcèlement homophobe de plusieurs mois contre le journaliste et animateur de Vox Carlos Maza. Cela a cimenté ce que dit Ellis est un modèle avec la plate-forme en ligne d'ignorer les défis uniques auxquels les créateurs queer sont confrontés. Le manque de confiance des créateurs LGBTQ+ dans la capacité de YouTube à se présenter pour eux n'est pas sans mérite.

"Je ne pense pas qu'ils aient compris la nécessité d'être transparent sur les questions sociales et d'assurer l'égalité", a-t-elle déclaré. "Il y a encore des enfants partout dans le monde qui ont grandi avec l'idée qu'être gay est mal, et quand ils commencent à remettre en question cette croyance, mais la trouvent éteinte par une fouille ou une restriction sûre, cela renforcera cette idée qu'il est faux, inapproprié, adulte, pervers et sale."

Échec de l'apprentissage automatique

Avec son histoire sordide concernant les créateurs de contenu LGBTQ + sur sa plate-forme, des inquiétudes concernant la mise en œuvre de la capacité du logiciel d'apprentissage automatique à discerner de plus grandes normes se profilent toujours. Don Heider, directeur exécutif du Markkula Center for Applied Ethics, suggère que le potentiel de folie est un trop grand risque pour jouer.

"Il est difficile de croire que l'IA peut efficacement régir le contenu de plusieurs pays avec des normes et des standards culturels différents", a-t-il écrit dans une interview par e-mail. "L'IA est trop souvent considérée comme la réponse à des questions complexes. À ce stade, l'IA et la façon dont elle est créée ont du mal à gérer des tâches même simples, sans parler de toute modération de contenu avec n'importe quel niveau de complexité."

YouTube a décidé d'utiliser la technologie de l'IA en raison d'un manque de modération cohérente par des modérateurs humains, selon son blog. L'augmentation de son utilisation de filtres informatisés pour supprimer les vidéos jugées inappropriées est devenue la norme, et la mise en œuvre des mêmes procédures pour ses politiques de limite d'âge est considérée comme une prochaine étape logique.

En tant qu'entreprise cherchant à améliorer progressivement ses processus après des critiques de longue date concernant sa relation avec les enfants consommateurs, cette décision n'est pas une surprise.

Je ne pense pas qu'ils aient compris la nécessité d'être transparent sur les questions sociales et d'assurer l'égalité.

Les enfants sont devenus un groupe démographique clé pour le site de partage de vidéos. En août, la société d'analyse de vidéos numériques Tubular a constaté qu'en dehors des clips musicaux, le contenu destiné aux enfants figurait en tête de liste de fin de mois pour les vidéos les plus visionnées sur YouTube.

L'intérêt de l'entreprise à protéger cette nouvelle centrale lucrative sur la plate-forme est logique. Cependant, les outils utilisés pour faire respecter cette protection restent gênants pour ceux qui se sont déjà retrouvés en aval des procédures de modération de l'entreprise.

"Je crains que cela fasse beaucoup de mal et ne protège pas les jeunes [LGBTQ+] qui ont besoin d'un contenu informatif, franc et honnête que beaucoup de YouTubers [LGBTQ+] pourraient fournir, mais qui est signalé dans son système comme inapproprié », a déclaré Ellis."Même si ce n'est pas malveillant, ce que je ne pense pas, c'est un manque d'apport de voix diverses - ou du moins un manque de respect.

"Nous voyons cela tout le temps dans la technologie. Lorsque vous regardez la reconnaissance faciale qui ne parvient pas à différencier les différents visages noirs, ou lorsque nous regardons la médecine et voyons que la médication n'a été testée que sur un sexe particulier. Ces sont des conversations plus importantes, et YouTube n'en est pas exempt."