Comment les hallucinations pourraient aider l'IA à mieux vous comprendre

Table des matières:

Comment les hallucinations pourraient aider l'IA à mieux vous comprendre
Comment les hallucinations pourraient aider l'IA à mieux vous comprendre
Anonim

Clé à emporter

  • Un nouveau modèle d'apprentissage automatique hallucine une image de l'apparence d'une phrase dans une langue pour faciliter la traduction.
  • Le système d'IA, appelé VALHALLA, a été conçu pour imiter la façon dont les humains perçoivent le langage.
  • Le nouveau système fait partie d'un mouvement croissant d'utilisation de l'IA pour comprendre le langage.
Image
Image

La méthode humaine de visualisation d'images tout en traduisant des mots pourrait aider l'intelligence artificielle (IA) à mieux vous comprendre.

Un nouveau modèle d'apprentissage automatique hallucine une image de ce à quoi ressemble une phrase dans une langue. Selon un article de recherche récent, la technique utilise ensuite la visualisation et d'autres indices pour faciliter la traduction. Cela fait partie d'un mouvement croissant d'utilisation de l'IA pour comprendre le langage.

"La façon dont les gens parlent et écrivent est unique parce que nous avons tous des tons et des styles légèrement différents", a déclaré Beth Cudney, professeur d'analyse de données à l'Université de Maryville, qui n'a pas participé à la recherche, à Lifewire dans une interview par e-mail.. « Comprendre le contexte est difficile car c'est comme traiter des données non structurées. C'est là que le traitement du langage naturel (PNL) est utile., en tant que branche de l'IA, ne se concentre pas simplement sur le sens littéral des mots que nous prononçons ou écrivons. Il examine le sens."

Allez demander à Alice

Le nouveau système d'IA, appelé VALHALLA, créé par des chercheurs du MIT, d'IBM et de l'Université de Californie à San Diego, a été conçu pour imiter la façon dont les humains perçoivent le langage. Selon les scientifiques, l'utilisation d'informations sensorielles, comme le multimédia, associées à des mots nouveaux et inconnus, comme des flashcards avec des images, améliore l'acquisition et la rétention du langage.

Ces systèmes augmentent la puissance des chatbots qui ne sont actuellement formés et capables que de conversations spécifiques…

L'équipe affirme que sa méthode améliore la précision de la traduction automatique par rapport à la traduction de texte uniquement. Les scientifiques ont utilisé une architecture d'encodeur-décodeur avec deux transformateurs, un type de modèle de réseau neuronal adapté aux données dépendant de la séquence, comme le langage, qui peut prêter attention aux mots-clés et à la sémantique d'une phrase. Un transformateur génère une hallucination visuelle et l'autre effectue une traduction multimodale en utilisant les sorties du premier transformateur.

"Dans des scénarios réels, vous pourriez ne pas avoir d'image par rapport à la phrase source", a déclaré Rameswar Panda, l'un des membres de l'équipe de recherche, dans un communiqué de presse. "Donc, notre motivation était essentiellement: au lieu d'utiliser une image externe lors de l'inférence comme entrée, pouvons-nous utiliser l'hallucination visuelle - la capacité d'imaginer des scènes visuelles - pour améliorer les systèmes de traduction automatique ?"

Compréhension de l'IA

Des recherches considérables sont axées sur l'avancement de la PNL, a souligné Cudney. Par exemple, Elon Musk a cofondé Open AI, qui travaille sur GPT-3, un modèle qui peut converser avec un humain et qui est suffisamment avisé pour générer du code logiciel en Python et Java.

Google et Meta travaillent également au développement de l'IA conversationnelle avec leur système appelé LAMDA. "Ces systèmes augmentent la puissance des chatbots qui ne sont actuellement formés et capables que de conversations spécifiques, ce qui changera probablement le visage du support client et des centres d'assistance", a déclaré Cudney.

Aaron Sloman, le co-fondateur de CLIPr, une société de technologie d'intelligence artificielle, a déclaré dans un e-mail que les grands modèles de langage comme GPT-3 peuvent apprendre à partir de très peu d'exemples de formation pour améliorer les résumés de texte basés sur les commentaires humains. Par exemple, dit-il, vous pouvez poser un problème mathématique à un grand modèle de langage et demander à l'IA de réfléchir étape par étape.

"Nous pouvons nous attendre à ce que de plus grandes informations et un meilleur raisonnement soient extraits des grands modèles de langage à mesure que nous en apprendrons davantage sur leurs capacités et leurs limites", a ajouté Sloman. "Je m'attends également à ce que ces modèles de langage créent des processus plus humains à mesure que les modélisateurs développent de meilleures façons d'affiner les modèles pour des tâches d'intérêt spécifiques."

Georgia Tech, professeur d'informatique, Diyi Yang, a prédit dans une interview par e-mail que nous verrons une plus grande utilisation des systèmes de traitement du langage naturel (PNL) dans notre vie quotidienne, allant des assistants personnalisés basés sur la PNL pour aider avec les e-mails et les appels téléphoniques, à des systèmes de dialogue bien informés pour la recherche d'informations dans les voyages ou les soins de santé."Ainsi que des systèmes d'IA équitables capables d'effectuer des tâches et d'aider les humains de manière responsable et impartiale", a ajouté Yang.

D'énormes modèles d'IA utilisant des trillions de paramètres tels que GPT-3 et DeepText continueront à travailler vers un modèle unique pour toutes les applications linguistiques, a prédit Stephen Hage, ingénieur en apprentissage automatique chez Dialexa, dans une interview par e-mail. Il a déclaré qu'il y aura également de nouveaux types de modèles créés pour des usages spécifiques, tels que les achats en ligne à commande vocale.

"Un exemple pourrait être un acheteur disant "Montre-moi ce fard à paupières bleu nuit avec plus de halo" pour montrer cette teinte sur les yeux de la personne avec un certain contrôle sur la façon dont elle est appliquée", a ajouté Hage.

Conseillé: