Clé à emporter
- Un nombre croissant de programmes peuvent comprendre votre discours.
- La nouvelle technologie génère un bruit audio personnalisé en arrière-plan lorsque vous parlez pour confondre le logiciel qui pourrait être à l'écoute.
-
La nouvelle technique atteint des performances en temps réel en prévoyant une attaque sur l'avenir du signal ou du mot.
De nombreux programmes peuvent comprendre votre discours pendant les appels téléphoniques ou vidéo, et les experts disent qu'ils peuvent constituer une menace pour la vie privée.
Une nouvelle technologie développée par des chercheurs de l'Université de Columbia, appelée Neural Voice Camouflage, pourrait offrir une défense. Il génère un bruit audio personnalisé en arrière-plan pendant que vous parlez, déroutant l'intelligence artificielle (IA) qui écoute et transcrit les voix.
"La présence de la transcription de l'IA soulève des questions de confiance", Michael Huth, co-fondateur de Xayn, un moteur de recherche protégeant la vie privée, et chef du département d'informatique à l'Imperial College de Londres, qui n'était pas impliqué dans la recherche, a déclaré Lifewire dans une interview par e-mail. "Les participants à la réunion peuvent être plus attentifs aux points qu'ils soulèvent et à la manière dont leur discours est transcrit. Cela peut être une bonne chose car cela peut améliorer un comportement respectueux, mais cela peut aussi être une mauvaise chose car la conversation peut être moins ouverte à cause de réserves sur la technologie utilisée."
Écouter et apprendre
Les chercheurs de Columbia ont travaillé à la conception d'un algorithme capable de casser les réseaux de neurones en temps réel. La nouvelle approche utilise des "attaques prédictives", un signal qui peut perturber n'importe quel mot que les modèles de reconnaissance automatique de la parole sont entraînés à transcrire. De plus, lorsque les sons d'attaque sont diffusés dans les airs, ils doivent être suffisamment forts pour perturber tout microphone "d'écoute" indésirable qui pourrait être éloigné.
"L'un des principaux défis techniques pour y parvenir était de faire en sorte que tout fonctionne assez rapidement", a déclaré Carl Vondrick, professeur d'informatique à Columbia et l'un des auteurs d'une étude décrivant la nouvelle approche. Libération. "Notre algorithme, qui parvient à empêcher un microphone malveillant d'entendre correctement vos paroles 80 % du temps, est le plus rapide et le plus précis de notre banc d'essai."
La nouvelle technique atteint des performances en temps réel en prévoyant une attaque sur l'avenir du signal ou du mot. L'équipe a optimisé l'attaque, de sorte qu'elle ait un volume similaire au bruit de fond normal, permettant aux personnes présentes dans une pièce de converser naturellement et sans être surveillées avec succès par un système de reconnaissance vocale automatique.
Les participants à la réunion peuvent être plus attentifs aux points qu'ils soulèvent et à la manière dont leur discours est transcrit.
Les scientifiques ont déclaré que leur technique fonctionnait même lorsque vous ne savez rien sur le microphone malveillant, comme son emplacement ou même le logiciel informatique qui s'y exécute. Il camoufle la voix d'une personne en direct, la cachant de ces systèmes d'écoute et sans gêner la conversation entre les personnes présentes dans la pièce.
"Jusqu'à présent, notre méthode fonctionne pour la majorité du vocabulaire de la langue anglaise, et nous prévoyons d'appliquer l'algorithme à d'autres langues, ainsi que de rendre éventuellement le murmure complètement imperceptible", Mia Chiquier, l'auteur principal de l'étude et un étudiant au doctorat dans le laboratoire de Vondrick, a déclaré dans le communiqué de presse.
Garder vos conversations privées
Comme si tout cela ne suffisait pas, les publicités pourraient également vous cibler en fonction de l'audio collecté à partir de votre smartphone ou de vos appareils domestiques intelligents.
"Avec des appareils comme [l'Amazon Echo] et leurs homologues, ces appareils sont non seulement toujours chez vous, écoutant constamment tout ce que vous dites ou faites, mais ils ont, grâce à des années de collecte de données auprès de leurs utilisateurs, perfectionné le traitement du langage naturel (transformation de la parole en texte/données utilisables pour les appareils via une combinaison de microphones, de logiciels et d'IA), " Erik Haig, associé chez Harbor Research, une société de conseil en stratégie et de développement d'entreprise, a déclaré dans un e-mail.
Les transcriptions IA du discours conversationnel font désormais partie intégrante des logiciels commerciaux standard, a déclaré Huth. Par exemple, Microsoft Teams propose une option d'enregistrement de réunion avec des transcriptions d'IA intégrées qui peuvent être vues par tous les participants en temps réel. La transcription complète peut servir de compte rendu de la réunion. Habituellement, ces transcriptions permettent la prise de notes (alias prise de notes), où le procès-verbal serait approuvé lors de la prochaine réunion.
"Les gens peuvent craindre d'être espionnés lorsque la transcription de l'IA est activée", a ajouté Huth."Cela ressemble beaucoup à la préoccupation d'avoir une conversation enregistrée sans consentement ou clandestinement."
Mais tout le monde n'est pas d'accord pour dire que les appareils intelligents sont une menace. La plupart des gens n'ont pas à s'inquiéter des programmes qui écoutent vos conversations, a déclaré Brad Hong, responsable de la réussite client de la société de cybersécurité Horizon3, à Lifewire par e-mail. Il a dit que la préoccupation la plus importante maintenant n'est pas qui vous enregistre, mais plutôt comment ils stockent les données.
"Toutes les histoires que l'on entend sur l'activation d'un microphone sur son ordinateur ou ses appareils mobiles, l'écoute d'Alexa ou de Google Home, ou même la surveillance gouvernementale, il est vrai que tout cela fait retourner l'estomac du profane", a ajouté Hong. "Mais dans l'ensemble, les gens sont rarement dans une situation qui nécessite réellement de camoufler leur voix."