Clé à emporter
- Des chercheurs ont mis au point une méthode pour brouiller les conversations afin d'empêcher les microphones malveillants de capturer nos conversations.
- La méthode est importante car elle fonctionne en temps réel sur le streaming audio et avec une formation minimale.
- Les experts applaudissent la recherche mais pensent qu'elle n'est pas d'une grande utilité pour l'utilisateur moyen de smartphone.
Nous sommes entourés d'appareils intelligents dotés de microphones, mais que se passe-t-il s'ils ont été compromis pour nous espionner ?
Dans un effort pour protéger nos conversations des fouineurs, des chercheurs de l'Université de Columbia ont développé une méthode de camouflage vocal neuronal qui perturbe les systèmes de reconnaissance automatique de la parole en temps réel sans gêner les gens.
"Avec l'invasion des [appareils intelligents activés par la voix] dans nos vies, l'idée de confidentialité commence à s'évaporer car ces appareils d'écoute sont toujours allumés et surveillent ce qui se dit", Charles Everette, directeur de Cyber Advocacy, Deep Instinct, a déclaré Lifewire par e-mail. "Cette recherche est une réponse directe au besoin de cacher ou de camoufler la voix et les conversations d'un individu à ces écoutes électroniques, connues ou inconnues dans une région."
Parler
Les chercheurs ont mis au point un système qui génère des sons silencieux que vous pouvez jouer dans n'importe quelle pièce pour empêcher les microphones malveillants d'espionner vos conversations.
La façon dont ce type de technologie contre les écoutes clandestines rappelle à Everette les casques antibruit. Au lieu de générer des sons silencieux pour annuler le bruit de fond, les chercheurs ont diffusé des sons de fond qui perturbent les algorithmes d'intelligence artificielle (IA) qui interprètent les ondes sonores en un son compréhensible.
De tels mécanismes pour camoufler la voix d'une personne ne sont pas uniques, mais ce qui distingue Neural Voice Camouflage des autres méthodes, c'est qu'il fonctionne en temps réel sur le streaming audio.
"Pour opérer sur la parole en direct, notre approche doit prédire [l'audio de brouillage correct] dans le futur afin qu'il puisse être joué en temps réel", notent les chercheurs dans leur article. Actuellement, la méthode fonctionne pour la majorité de la langue anglaise.
Hans Hansen, PDG de Brand3D, a déclaré à Lifewire que la recherche est très importante car elle s'attaque à une faiblesse majeure des systèmes d'IA actuels.
Dans une conversation par e-mail, Hansen a expliqué que les systèmes actuels d'IA d'apprentissage profond en général et de reconnaissance vocale naturelle en particulier fonctionnent après avoir traité des millions d'enregistrements de données vocales collectés auprès de milliers de locuteurs. En revanche, Neural Voice Camouflage fonctionne après s'être conditionné sur seulement deux secondes de parole d'entrée.
Personnellement, si je suis préoccupé par les appareils qui écoutent, ma solution ne serait pas d'ajouter un autre appareil d'écoute qui cherche à générer du bruit de fond.
Mauvais arbre ?
Brian Chappell, stratège en chef de la sécurité chez BeyondTrust, estime que la recherche est plus bénéfique pour les utilisateurs professionnels qui craignent de se trouver au milieu d'appareils compromis qui écoutent des mots clés indiquant que des informations précieuses sont prononcées.
"Là où cette technologie serait potentiellement plus intéressante, c'est dans un état de surveillance plus autoritaire où l'analyse de l'empreinte vidéo et vocale de l'IA est utilisée contre les citoyens", a déclaré James Maude, chercheur principal en cybersécurité chez BeyondTrust, à Lifewire par e-mail.
Maude a suggéré qu'une meilleure alternative serait de mettre en place des contrôles de confidentialité sur la façon dont les données sont capturées, stockées et utilisées par ces appareils. De plus, Chappell pense que l'utilité de la méthode du chercheur est limitée car elle n'est pas conçue pour arrêter l'écoute humaine.
"Pour la maison, gardez à l'esprit que, du moins en théorie, l'utilisation d'un tel outil amènera Siri, Alexa, Google Home et tout autre système activé par un mot déclencheur prononcé à vous ignorer", a déclaré Chappell.
Mais les experts pensent qu'avec l'inclusion croissante de technologies spécifiques à l'IA/ML dans nos appareils intelligents, il est tout à fait possible que cette technologie se retrouve dans nos téléphones, dans un avenir proche.
Maude est inquiète car les technologies d'intelligence artificielle peuvent apprendre rapidement à faire la différence entre le bruit et l'audio réel. Il pense que même si le système peut réussir au départ, il pourrait rapidement se transformer en un jeu du chat et de la souris lorsqu'un appareil d'écoute apprend à filtrer les bruits de brouillage.
Plus inquiétant, Maude a souligné que toute personne l'utilisant pourrait, en fait, attirer l'attention sur elle-même, car perturber la reconnaissance vocale semblerait inhabituel et pourrait indiquer que vous essayez de cacher quelque chose.
"Personnellement, si je suis préoccupé par les appareils qui écoutent, ma solution ne serait pas d'ajouter un autre appareil d'écoute qui cherche à générer du bruit de fond", a partagé Maude. "D'autant plus que cela ne fait qu'augmenter le risque qu'un appareil ou une application soit piraté et puisse m'écouter."