Facebook teste un modèle d'IA pour limiter les conflits dans les groupes

Facebook teste un modèle d'IA pour limiter les conflits dans les groupes
Facebook teste un modèle d'IA pour limiter les conflits dans les groupes
Anonim

Facebook a déclaré qu'il testait une technologie de modération d'intelligence artificielle dans les groupes pour limiter les conflits dans les publications et les commentaires.

Le nouvel outil alimenté par l'IA s'appelle Conflict Alerts et est destiné à aider les administrateurs de groupe à mieux contrôler leurs communautés. La technologie d'intelligence artificielle informera un administrateur si elle repère des "conversations litigieuses ou malsaines" afin qu'un administrateur puisse prendre les mesures nécessaires plus rapidement.

Image
Image

Pour l'utilisateur moyen de Facebook, ce nouvel outil signifie que vous verrez probablement moins de querelles et d'arguments dans les publications des groupes que vous suivez, donc les choses seront moins négatives, dans l'ensemble.

Les administrateurs peuvent utiliser l'outil Alertes de conflit pour créer des alertes lorsque les utilisateurs commentent avec des mots ou des phrases spécifiques, et le machine learning peut repérer ces instances pour alerter un administrateur lorsqu'elles se produisent. L'outil permet également aux administrateurs de limiter l'activité de personnes et de publications spécifiques.

Facebook a déclaré à The Verge que l'apprentissage automatique utiliserait "plusieurs signaux tels que le temps de réponse et le volume de commentaires pour déterminer si l'engagement entre les utilisateurs a ou pourrait conduire à des interactions négatives".

Facebook utilise déjà des outils d'intelligence artificielle pour signaler d'autres types de contenu sur sa plate-forme, y compris les discours de haine. Selon un rapport d'août 2020 sur l'application des normes communautaires, l'outil d'IA de Facebook pour les discours de haine était précis à 95 %, contre 89 % au premier trimestre 2020. Facebook a déclaré avoir augmenté ses actions contre le contenu des discours de haine de 9,6 millions d'instances au premier trimestre. 2020 à 22,5 millions au deuxième trimestre.

Pour l'utilisateur moyen de Facebook, ce nouvel outil signifie que vous verrez probablement moins de querelles et d'arguments dans les publications des groupes que vous suivez

Le réseau social travaille également sur une technologie d'intelligence artificielle capable de "voir" des photos en utilisant des données brutes pour laisser le modèle s'entraîner lui-même - indépendamment et sans utiliser d'algorithme - lorsqu'il visualise plus d'images. Le projet AI, connu sous le nom de SEER, pourrait ouvrir la voie à des modèles de vision par ordinateur plus polyvalents, précis et adaptables, tout en offrant de meilleurs outils de recherche et d'accessibilité aux utilisateurs de médias sociaux.

Conseillé: