Le préjugé racial de l'algorithme Twitter indique un problème technologique plus important

Table des matières:

Le préjugé racial de l'algorithme Twitter indique un problème technologique plus important
Le préjugé racial de l'algorithme Twitter indique un problème technologique plus important
Anonim

Clé à emporter

  • Twitter espère remédier à ce que les utilisateurs appellent les préjugés raciaux dans leur logiciel de prévisualisation d'images.
  • L'appel du géant de la technologie pourrait être le calcul culturel dont l'industrie a besoin pour résoudre les problèmes de diversité.
  • Le manque de diversité de la technologie nuit à l'efficacité de ses avancées technologiques.
Image
Image

Twitter est sur le point de lancer une enquête sur son algorithme de recadrage d'images après qu'il soit devenu un sujet tendance qui a suscité une plus grande conversation sur les questions de diversité dans l'industrie technologique.

Le mastodonte des médias sociaux a fait la une des journaux après que les utilisateurs ont découvert des préjugés raciaux apparents dans son algorithme de prévisualisation d'images. La découverte s'est produite après que l'utilisateur de Twitter, Colin Madland, a utilisé la plate-forme pour dénoncer l'incapacité de Zoom à reconnaître ses collègues noirs qui utilisaient la technologie d'écran vert, mais dans une grande ironie, il a découvert que l'algorithme de recadrage d'images de Twitter se comportait de la même manière et dépriorisait les visages noirs.

Certainement, c'est un énorme problème pour n'importe quelle minorité, mais je pense qu'il y a aussi un problème beaucoup plus large.

D'autres utilisateurs ont suivi la tendance en déclenchant une série de tweets viraux montrant que l'algorithme donnait systématiquement la priorité aux visages blancs et à la peau plus claire, allant des personnes aux personnages de dessins animés et même aux chiens. Cet échec est révélateur d'un mouvement culturel plus large dans l'industrie technologique qui a systématiquement omis de prendre en compte les groupes minoritaires, ce qui a débordé sur le côté technique.

"Cela rend les minorités mal à l'aise, comme si elles n'étaient pas importantes, et cela peut être utilisé pour d'autres choses qui peuvent causer des dommages plus graves sur toute la ligne", Erik Learned-Miller, professeur d'informatique à l'université du Massachusetts, a déclaré lors d'un entretien téléphonique."Une fois que vous avez décidé à quoi sert un logiciel et tous les dommages qui peuvent survenir, nous commençons à parler des moyens de minimiser les risques que cela se produise."

Canary sur la timeline

Twitter utilise des réseaux de neurones pour recadrer automatiquement les images intégrées dans les tweets. L'algorithme est censé détecter les visages à prévisualiser, mais il semble avoir un biais blanc notable. La porte-parole de la société, Liz Kelley, a tweeté une réponse à toutes les préoccupations.

Kelley a tweeté: "Merci à tous ceux qui ont soulevé cette question. Nous avons testé les préjugés avant d'expédier le modèle et n'avons pas trouvé de preuves de préjugés raciaux ou sexistes lors de nos tests, mais il est clair que nous avons plus d'analyses pour faire. nous allons ouvrir notre travail afin que d'autres puissent le réviser et le répliquer."

Co-auteur du livre blanc "Facial Recognition Technologies in The Wild: A Call for a Federal Office", Learned-Miller est un chercheur de premier plan sur les excès des logiciels d'apprentissage de l'IA basés sur le visage. Il discute de l'impact négatif potentiel des logiciels d'apprentissage par l'image depuis des années et a parlé de l'importance de créer une réalité où ces préjugés sont atténués au mieux de leurs capacités.

De nombreux algorithmes pour la technologie de reconnaissance faciale utilisent des ensembles de référence pour les données, souvent appelés ensembles d'apprentissage, qui sont une collection d'images utilisées pour affiner le comportement des logiciels d'apprentissage d'images. Cela permet finalement à l'IA de reconnaître facilement un large éventail de visages. Cependant, ces ensembles de référence peuvent ne pas disposer d'un pool diversifié, ce qui entraîne des problèmes tels que ceux rencontrés par l'équipe Twitter.

"Certainement, c'est un énorme problème pour toute minorité, mais je pense qu'il y a aussi un problème beaucoup plus large", a déclaré Learned-Miller. "Cela est lié à un manque de diversité dans le secteur de la technologie et à la nécessité d'une force de régulation centralisée pour montrer les bons usages de ce type de logiciel puissant sujet aux abus et aux abus."

Tech manque de diversité

Twitter est peut-être la dernière entreprise technologique sur le billot, mais ce problème est loin d'être nouveau. Le domaine de la technologie reste un domaine à prédominance blanche et perpétuellement dominé par les hommes et les chercheurs ont découvert que le manque de diversité provoque une réplication des déséquilibres systémiques et historiques dans les logiciels développés.

Dans un rapport de 2019 de l'AI Now Institute de l'Université de New York, des chercheurs ont découvert que les Noirs représentaient moins de 6 % de la main-d'œuvre des plus grandes entreprises technologiques du pays. De même, les femmes ne représentent que 26 % des travailleurs sur le terrain, une statistique inférieure à leur part en 1960.

Cela rend les minorités mal à l'aise, comme si elles n'étaient pas importantes, et cela peut être utilisé pour d'autres choses qui peuvent causer des dommages plus graves sur toute la ligne.

En surface, ces problèmes de représentation peuvent sembler banals, mais en pratique, les dommages causés peuvent être profonds. Les chercheurs du rapport de l'AI Now Institute suggèrent que cela est lié de manière causale à des problèmes liés aux logiciels qui ne tiennent souvent pas compte des populations non blanches et non masculines. Qu'il s'agisse des distributeurs de savon infrarouges qui ne parviennent pas à détecter les peaux plus foncées ou du logiciel d'intelligence artificielle d'Amazon qui ne parvient pas à différencier les visages féminins de ceux de leurs homologues masculins, un échec à aborder la diversité dans l'industrie technologique conduit à un échec de la technologie pour faire face à un monde diversifié.

"Il y a beaucoup de gens qui n'ont pas réfléchi aux problèmes et ne réalisent pas vraiment comment ces choses peuvent causer des dommages et à quel point ces dommages sont importants", a suggéré Learned-Miller à propos de l'apprentissage des images par l'IA. "Espérons que ce nombre de personnes diminue !"

Conseillé: