Pourquoi nous avons besoin d'une IA qui s'explique d'elle-même

Table des matières:

Pourquoi nous avons besoin d'une IA qui s'explique d'elle-même
Pourquoi nous avons besoin d'une IA qui s'explique d'elle-même
Anonim

Clé à emporter

  • Les entreprises utilisent de plus en plus l'IA qui explique comment elle obtient des résultats.
  • LinkedIn a récemment augmenté ses revenus d'abonnement après avoir utilisé l'IA qui a prédit les clients à risque d'annulation et décrit comment elle est arrivée à ses conclusions.
  • La Federal Trade Commission a déclaré que l'IA qui n'est pas explicable pourrait faire l'objet d'une enquête.
Image
Image

L'intelligence artificielle (IA) pourrait être l'une des nouvelles tendances les plus en vogue dans les logiciels.

Explainable AI porte ses fruits alors que les éditeurs de logiciels tentent de rendre l'IA plus compréhensible. LinkedIn a récemment augmenté ses revenus d'abonnement après avoir utilisé l'IA qui a prédit les clients à risque d'annulation et a décrit comment il est arrivé à ses conclusions.

"L'IA explicable consiste à pouvoir faire confiance au résultat et à comprendre comment la machine y est parvenue", a déclaré Travis Nixon, PDG de SynerAI et Chief Data Science, Financial Services chez Microsoft, à Lifewire dans une interview par e-mail..

"'Comment ?' est une question posée à de nombreux systèmes d'IA, en particulier lorsque des décisions sont prises ou que des résultats sont produits qui ne sont pas idéaux », a ajouté Nixon. "Qu'il s'agisse de traiter différentes races de manière injuste ou de confondre une tête chauve avec un ballon de football, nous devons savoir pourquoi les systèmes d'IA produisent leurs résultats. Une fois que nous avons compris le "comment", cela positionne les entreprises et les individus pour répondre "et ensuite ?"."

Se familiariser avec l'IA

AI s'est avérée exacte et fait de nombreux types de prédictions. Mais l'IA est souvent capable d'expliquer comment elle est arrivée à ses conclusions.

Et les régulateurs prennent note du problème d'explicabilité de l'IA. La Federal Trade Commission a déclaré que l'IA qui n'est pas explicable pourrait faire l'objet d'une enquête. L'UE envisage l'adoption de la loi sur l'intelligence artificielle, qui exige que les utilisateurs soient capables d'interpréter les prédictions de l'IA.

Linkedin fait partie des entreprises qui pensent que l'IA explicable peut aider à augmenter les profits. Auparavant, les vendeurs de LinkedIn s'appuyaient sur leurs connaissances et passaient énormément de temps à parcourir les données hors ligne pour identifier les comptes susceptibles de continuer à faire des affaires et les produits qui pourraient les intéresser lors du prochain renouvellement de contrat. Pour résoudre le problème, LinkedIn a lancé un programme appelé CrystalCandle qui repère les tendances et aide les vendeurs.

Dans un autre exemple, Nixon a déclaré que lors de la création d'un modèle de définition de quotas pour la force de vente d'une entreprise, son entreprise a été en mesure d'intégrer une IA explicable pour identifier les caractéristiques pointant vers une nouvelle embauche réussie.

"Grâce à cette sortie, la direction de cette entreprise a pu identifier les vendeurs à mettre sur la "voie rapide" et ceux qui avaient besoin d'un coaching, le tout avant que des problèmes majeurs ne surviennent", a-t-il ajouté.

De nombreuses utilisations pour une IA explicable

L'IA explicable est actuellement utilisée comme un contrôle intestinal pour la plupart des data scientists, a déclaré Nixon. Les chercheurs exécutent leur modèle à l'aide de méthodes simples, s'assurent qu'il n'y a rien de complètement hors service, puis expédient le modèle.

"C'est en partie parce que de nombreuses organisations de science des données ont optimisé leurs systèmes autour du "temps sur la valeur" en tant que KPI, conduisant à des processus précipités et à des modèles incomplets", a ajouté Nixon.

Je crains que le contrecoup de modèles irresponsables ne fasse sérieusement reculer l'industrie de l'IA.

Les gens ne sont souvent pas convaincus par des résultats que l'IA ne peut pas expliquer. Raj Gupta, directeur de l'ingénierie chez Cogito, a déclaré dans un e-mail que son entreprise avait sondé les clients et constaté que près de la moitié des consommateurs (43%) auraient une perception plus positive d'une entreprise et de l'IA si les entreprises étaient plus explicites sur leur utilisation. de la technologie.

Et il n'y a pas que les données financières qui bénéficient de l'aide de l'IA explicable. Un domaine qui bénéficie de la nouvelle approche est celui des données d'image, où il est facile d'indiquer quelles parties d'une image l'algorithme pense être essentielles et où il est facile pour un humain de savoir si cette information a du sens, Samantha Kleinberg, professeur agrégé à Stevens Institute of Technology et expert en IA explicable, a déclaré à Lifewire par e-mail.

"C'est beaucoup plus difficile de faire cela avec un ECG ou des données de glycémie en continu", a ajouté Kleinberg.

Nixon a prédit que l'IA explicable serait la base de tout système d'IA à l'avenir. Et sans IA explicable, les résultats pourraient être désastreux, a-t-il dit.

"J'espère que nous progresserons sur ce front suffisamment loin pour tenir l'IA explicable pour acquise dans les années à venir et que nous regarderons en arrière à cette époque aujourd'hui surpris que quelqu'un soit assez fou pour déployer des modèles qu'il ne comprendrait pas, " il ajouta."Si nous n'abordons pas l'avenir de cette manière, je crains que le contrecoup de modèles irresponsables ne fasse sérieusement reculer l'industrie de l'IA."

Conseillé: