Les chercheurs de l'UC Berkeley et de l'Université de Georgetown en sont parfaitement conscients, c'est pourquoi ils ont décidé l'année dernière de enquêter précisément sur la vulnérabilité le logiciel de reconnaissance vocale qui alimente tant de nos appareils informatiques l’est réellement. Ils se sont concentrés sur Assistant Google, qui vit à l'échelle du système sur Android et dans l'application Google sur iOS, et a développé un moyen de tronquer les commandes vocales juste assez pour que Google Assistant puisse les comprendre, mais elles étaient inintelligibles pour la plupart des humains.
Vidéos recommandées
Les chercheurs ont testé la reconnaissance de plusieurs commandes obscurcies, comme « OK Google », et mesuré la capacité du logiciel à déchiffrer le message par rapport à celle des humains. Ce qu'ils ont constaté, notamment dans le cas de « OK Google », c'est que le panel de participants n'a pu pour identifier la phrase brouillée dans 22 % des cas, mais l'Assistant l'a comprise dans 95 % des cas. temps. De plus, le logiciel était plus efficace pour décoder la version obscurcie que la prononciation normale de « OK Google », ce qui a donné un taux de reconnaissance de seulement 90 %.
En rapport
- Les experts préviennent que les assistants IA nuisent au développement social des enfants
- Amazon Echo reste le roi des enceintes intelligentes malgré le déclin de sa part de marché aux États-Unis
- Votre haut-parleur Alexa peut être piraté avec des pistes audio malveillantes. Et des lasers.
Démo VoiceHack
À première vue, bon nombre de ces commandes déformées peuvent paraître statiques avec la vague cadence de la parole, seulement accélérée. En tant qu’humains, lorsque nous savons quelle est la phrase avant de l’entendre, elle devient infiniment plus facile à identifier. Mais sans ces informations, dans de nombreux cas, nous restons perplexes.
L’étude note que certaines commandes mélangées sont plus faciles à comprendre que d’autres. « Appeler le 911 », par exemple, a donné un taux de reconnaissance humaine de 94 %, contre seulement 40 % pour Google. Assistant, probablement parce que c’est une expression à laquelle la grande majorité des anglophones américains ont été préconditionnés. entendre. Mais la bonne combinaison d'une commande de niche a été modifiée juste assez pour que nos assistants personnels y soient réceptifs pendant que nous sommes en train de le faire. se gratter la tête présente un risque évident, étant donné que les commandes vocales de la plupart des appareils grand public ne disposent d'aucune forme de authentification.
Que pouvons-nous faire pour nous protéger contre le piratage vocal ?
L’une des rares mesures préventives contre ce type de manipulation vocale est que de nombreuses commandes invitent ensuite les assistants à demander une confirmation. Cependant, comme le souligne The Atlantic dans leur article sur l'étude, ce n’est qu’un petit obstacle à franchir avec un « oui » déformé et si tout se passe trop vite pour que l’utilisateur réalise ce qui se passe, il ne pourra pas l’arrêter à temps.
Certaines commandes mélangées sont plus faciles à comprendre que d’autres.
L’équipe a poursuivi sa découverte en proposant des services tels que Google Assistant, Siri d’Apple et Amazon. Alexa pourrait contrer ces attaques, et il s’avère qu’il existe diverses méthodes que les entreprises pourraient être enclines à mettre en œuvre. Certaines défenses, comme un CAPTCHA audio, pourraient être utilisées comme confirmation finale pour distinguer les utilisateurs humains des machines – bien que les chercheurs soulignent Il ressort que les algorithmes qui alimentent les CAPTCHA audio sont relativement obsolètes et n'ont pas suivi le rythme des progrès réalisés dans la technologie de reconnaissance vocale. Sans oublier que les CAPTCHA sont exaspérants à gérer.
Une solution plus complexe consiste à adapter la reconnaissance à la voix du propriétaire, que de nombreux services utilisent déjà de manière limitée. Cependant, le rapport admet que cette proposition nécessite une formation de la part de l'appareil et pose un problème pour les gadgets destinés à être utilisés par plusieurs personnes, comme Amazon Echo. L'équipe a déterminé que l'une des défenses les plus pratiques et les plus efficaces serait un filtre qui dégrade légèrement l'audio. qualité des commandes, rendant les phrases les plus obscurcies méconnaissables par l'appareil tout en permettant aux humains de passer à travers.
Bien que les signalements d’attaques vocales de ce type soient rares, voire inexistants, cela est toujours utile. être conscient des domaines dans lesquels se situent les vulnérabilités afin de pouvoir les réduire avant que les problèmes ne commencent réellement à apparaître en haut. Grâce aux recherches effectuées ici, nous serons un peu mieux préparés au cas où une vague de chuchotements sataniques commencerait à dire à nos smartphones quoi faire.
Recommandations des rédacteurs
- Oubliez ChatGPT — Siri et Google Assistant font mieux ces 4 choses
- Siri et Google Assistant déclarent désormais prendre en charge Black Lives Matter
- Alexa peut désormais montrer plus d'émotion lorsque votre équipe sportive perd
- Une nouvelle recherche révèle que les haut-parleurs intelligents peuvent être compromis par les lasers
- La nouvelle mise à jour de confidentialité de Google vous permet de supprimer l'historique des commandes vocales de l'Assistant
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.