Comment l'IA peut nous aider à mieux entendre

Table des matières:

Comment l'IA peut nous aider à mieux entendre
Comment l'IA peut nous aider à mieux entendre
Anonim

Clé à emporter

  • Une gamme de nouvelles aides auditives annoncées lors du Consumer Electronics Show de la semaine dernière prétendent améliorer les sons grâce à l'intelligence artificielle.
  • Le WIDEX MOMENT utilise l'IA pour savoir comment les utilisateurs préfèrent entendre leur environnement et le compare à des millions de paramètres stockés dans le cloud.
  • L'Oticon More est formé sur 12 millions de sons, il traite donc la parole dans le bruit plus comme le cerveau humain, affirme la société.
Image
Image

Les nouvelles aides auditives utilisent l'intelligence artificielle pour produire des sons plus réalistes, affirment les fabricants.

Le WIDEX MOMENT récemment publié utilise l'IA pour savoir comment les utilisateurs préfèrent entendre leur environnement et le compare à des millions de paramètres stockés dans le cloud pour aider à personnaliser l'expérience d'écoute. C'est l'un des nombreux appareils auditifs qui utilisent les nouvelles technologies.

"WIDEX MOMENT avec PureSound répond à l'un des grands défis non résolus pour les utilisateurs d'aides auditives: quelle que soit la qualité du son, il semble toujours artificiel, comme si vous écoutiez un enregistrement de votre voix plutôt que la façon dont il sonnait avant que votre audition ne soit altérée ", a déclaré Kerrie Coughlin, vice-présidente de Widex Marketing, dans une interview par e-mail.

"En d'autres termes, quelles que soient les capacités technologiques, les aides auditives ont toujours eu le même son que des aides auditives."

On ne vous entend pas

Le MOMENT et d'autres aides auditives de haute technologie répondent à un problème auquel de nombreux Américains sont confrontés. Environ une personne sur trois aux États-Unis. S. âgés de 65 à 74 ans ont une perte auditive, et près de la moitié des personnes âgées de plus de 75 ans ont des difficultés à entendre, selon l'Institut national sur la surdité et les autres troubles de la communication.

Les aides auditives traditionnelles peuvent changer la vie, mais elles ont leurs limites. Le son qu'un utilisateur entend est altéré car, lorsqu'il est traité dans l'aide auditive, il atteint le tympan un peu plus tard que le son qui traverse directement l'oreille elle-même. Lorsque ces deux signaux "non synchronisés" se mélangent, le résultat est un son artificiel.

Pour essayer d'éviter ce problème, le MOMENT utilise un chemin de traitement parallèle pour réduire la latence. La société affirme que l'aide auditive traite le son 10 fois plus rapidement que les autres appareils, ce qui réduit la latence de traitement à 0,5 milliseconde.

En d'autres termes, quelles que soient les capacités technologiques, les aides auditives ont toujours sonné comme des aides auditives.

"De nombreuses aides auditives produisent un signal qui n'est pas familier au cerveau, ce qui vous oblige à réapprendre à entendre", a déclaré Coughlin."Cela est dû en grande partie au retard qui se produit lors du traitement du son. WIDEX MOMENT avec PureSound délivre un signal plus vrai avec un retard minimal, de sorte que votre cerveau reconnaît le signal et que vous reconnaissez le son."

AI améliore également les performances du MOMENT, a déclaré Coughlin. Le logiciel analyse les préférences de l'utilisateur et apprend comment les utilisateurs préfèrent entendre leur environnement en analysant les paramètres. L'IA recherche également parmi des millions de paramètres utilisateur stockés dans le cloud pour aider à personnaliser l'expérience d'écoute.

Les fabricants sautent sur l'IA

Le MOMENT n'est pas la seule aide auditive à utiliser l'IA. La semaine dernière, au Consumer Electronics Show, Oticon a lancé l'aide auditive Oticon More avec un réseau neuronal profond (DNN) intégré. Le réseau Oticon More est formé sur 12 millions de sons, de sorte qu'il traite la parole dans le bruit plus comme le cerveau humain, affirme la société.

"Le DNN d'Oticon More a appris la façon dont le cerveau apprend, naturellement au fil du temps", a déclaré Donald Schum, vice-président de l'audiologie chez Oticon, dans un communiqué de presse.

"Chaque son qui passe à travers l'aide auditive est comparé aux résultats découverts lors de la phase d'apprentissage. Cela permet à Oticon More de fournir une scène sonore plus naturelle, complète et équilibrée avec précision, ce qui permet au cerveau de fonctionner de manière optimale."

Il y a aussi l'Orka One, une nouvelle aide auditive annoncée au CES de la semaine dernière, qui prétend utiliser l'IA pour réduire le bruit de fond. L'ORKA One utilise un réseau de neurones IA sur une puce dans le boîtier de l'aide auditive, indique la société.

Image
Image

Le réseau identifie et réduit les bruits de fond qui peuvent distraire et également améliorer les voix humaines. "Les aides auditives à technologie AI denoise peuvent distinguer le bruit de fond et permettre aux utilisateurs d'entendre clairement les sons à basse fréquence", indique la société sur son site Web. "Ainsi, les utilisateurs ont une meilleure audition et vous pouvez converser sans effort avec votre famille et vos amis dans les zones bruyantes."

L'intelligence artificielle transforme rapidement toutes sortes de technologies, y compris les dispositifs médicaux. Si l'un de ces gadgets améliore l'expérience des utilisateurs, il pourrait être une aubaine pour les malentendants.

Conseillé: