Clé à emporter
- Des chercheurs ont créé des techniques qui permettent aux utilisateurs de classer les résultats du comportement d'un modèle d'apprentissage automatique.
- Les experts disent que la méthode montre que les machines rattrapent les capacités de réflexion des humains.
- Les progrès de l'IA pourraient accélérer le développement de la capacité des ordinateurs à comprendre le langage et révolutionner la façon dont l'IA et les humains interagissent.
Une nouvelle technique qui mesure le pouvoir de raisonnement de l'intelligence artificielle (IA) montre que les machines rattrapent les humains dans leur capacité à penser, selon les experts.
Des chercheurs du MIT et d'IBM Research ont créé une méthode qui permet à un utilisateur de classer les résultats du comportement d'un modèle d'apprentissage automatique. Leur technique, appelée Shared Interest, intègre des mesures qui comparent à quel point la pensée d'un modèle correspond à celle des gens.
"Aujourd'hui, l'IA est capable d'atteindre (et, dans certains cas, de dépasser) les performances humaines dans des tâches spécifiques, y compris la reconnaissance d'images et la compréhension du langage", Pieter Buteneers, directeur de l'ingénierie en apprentissage automatique et en IA à la communication société Sinch, a déclaré à Lifewire dans une interview par e-mail. "Avec le traitement du langage naturel (NLP), les systèmes d'IA peuvent interpréter, écrire et parler des langues aussi bien que les humains, et l'IA peut même ajuster son dialecte et son ton pour s'aligner sur ses pairs humains."
Intelligence Artificielle
L'IA produit souvent des résultats sans expliquer pourquoi ces décisions sont correctes. Et les outils qui aident les experts à comprendre le raisonnement d'un modèle ne fournissent souvent que des informations, un seul exemple à la fois. L'IA est généralement entraînée à l'aide de millions d'entrées de données, ce qui rend difficile pour un humain d'évaluer suffisamment de décisions pour identifier des modèles.
Dans un article récent, les chercheurs ont déclaré que l'intérêt partagé pourrait aider un utilisateur à découvrir les tendances dans la prise de décision d'un modèle. Et ces informations pourraient permettre à l'utilisateur de décider si un modèle est prêt à être déployé.
"En développant Shared Interest, notre objectif est de pouvoir étendre ce processus d'analyse afin que vous puissiez comprendre à un niveau plus global quel est le comportement de votre modèle", Angie Boggust, co-auteur de l'article, a déclaré dans le communiqué de presse.
Shared Interest utilise une technique qui montre comment un modèle d'apprentissage automatique a pris une décision particulière, connue sous le nom de méthodes de saillance. Si le modèle classe des images, les méthodes de saillance mettent en évidence les zones d'une image qui sont importantes pour le modèle lorsqu'il prend sa décision. L'intérêt partagé fonctionne en comparant les méthodes de saillance aux annotations générées par l'homme.
Les chercheurs ont utilisé l'intérêt partagé pour aider un dermatologue à déterminer s'il doit faire confiance à un modèle d'apprentissage automatique conçu pour aider à diagnostiquer le cancer à partir de photos de lésions cutanées. L'intérêt partagé a permis au dermatologue de voir rapidement des exemples de prédictions correctes et incorrectes du modèle. Le dermatologue a décidé qu'il ne pouvait pas faire confiance au modèle car il faisait trop de prédictions basées sur des artefacts d'image plutôt que sur des lésions réelles.
La valeur ici est qu'en utilisant l'intérêt partagé, nous sommes en mesure de voir ces modèles émerger dans le comportement de notre modèle. En une demi-heure environ, le dermatologue a pu décider de faire confiance ou non au modèle et de le déployer ou non », a déclaré Boggust.
Le raisonnement derrière la décision d'un modèle est important à la fois pour le chercheur en apprentissage automatique et pour le décideur.
Mesurer les progrès
Le travail des chercheurs du MIT pourrait être un pas en avant significatif pour les progrès de l'IA vers l'intelligence au niveau humain, a déclaré Ben Hagag, responsable de la recherche chez Darrow, une entreprise qui utilise des algorithmes d'apprentissage automatique, qui a déclaré à Lifewire dans une interview par e-mail.
"Le raisonnement derrière la décision d'un modèle est important à la fois pour le chercheur en apprentissage automatique et pour le décideur", a déclaré Hagag. "Le premier veut comprendre à quel point le modèle est bon et comment il peut être amélioré, tandis que le second veut développer un sentiment de confiance dans le modèle, il doit donc comprendre pourquoi cette sortie a été prédite."
Mais Hagag a averti que la recherche du MIT est basée sur l'hypothèse que nous comprenons ou pouvons annoter la compréhension humaine ou le raisonnement humain.
"Cependant, il est possible que cela ne soit pas exact, donc plus de travail sur la compréhension de la prise de décision humaine est nécessaire", a ajouté Hagag.
Les progrès de l'IA pourraient accélérer le développement de la capacité des ordinateurs à comprendre le langage et révolutionner la façon dont l'IA et les humains interagissent, a déclaré Buteneers. Les chatbots peuvent comprendre des centaines de langues à la fois et les assistants IA peuvent analyser des corps de texte pour trouver des réponses à des questions ou à des irrégularités.
"Certains algorithmes peuvent même identifier les messages frauduleux, ce qui peut aider les entreprises et les consommateurs à éliminer les spams", a ajouté Buteneers.
Mais, a déclaré Buteneers, l'IA fait encore des erreurs que les humains ne feraient jamais. "Bien que certains craignent que l'IA ne remplace les emplois humains, la réalité est que nous aurons toujours besoin de personnes travaillant aux côtés de robots IA pour les aider à les contrôler et à éviter ces erreurs tout en maintenant une touche humaine dans les affaires", a-t-il ajouté.