Cet oiseau à l’air innocent qui chante son chant du matin n’est peut-être pas si innocent après tout. Selon des scientifiques de la Ruhr-Universitaet de Bochum, en Allemagne, des ondes audio manipulées à partir du chant des oiseaux pourraient être utilisées pour lancer une attaque contre les assistants vocaux.
Selon les chercheurs, les fichiers audio manipulés font partie de ce qu’on appelle une « attaque contradictoire ». qui est conçu pour confondre les réseaux neuronaux profonds qui aident les assistants basés sur l'intelligence artificielle comme Pommes Siri, celui de Google Assistant, et celui d'Amazon Alexa fonction.
Vidéos recommandées
En utilisant le son des gazouillis d'oiseaux - ou des versions éditées de chansons ou de discours humains - manipulés de manière à ce que seul le microphone de votre haut-parleur intelligent ou téléphone intelligent peut détecter, l'attaque contourne la détection des oreilles humaines et commence à s'immiscer dans l'IA. assistant. Ce qui ressemble à un chant d’oiseau pourrait en réalité être l’une de ces attaques avec des commandes cachées transmises à l’assistant vocal de votre choix.
En rapport
- La version Chrome de Nvidia DLSS est sur le point d'être lancée, mais vous ne pouvez pas encore l'utiliser
- 9 façons dont Google Assistant peut vous aider pour Thanksgiving
- Les experts préviennent que les assistants IA nuisent au développement social des enfants
Les chercheurs suggèrent que les attaques, qui utilisent la dissimulation psychoacoustique pour masquer leurs véritables intentions, pourraient être diffusées via une application ou cachées dans un autre type de diffusion. Par exemple, le son pourrait être masqué dans une publicité diffusée à la télévision ou à la radio pour toucher des milliers de cibles à la fois.
"[Dans] le pire des cas, un attaquant pourrait être en mesure de prendre le contrôle de l'ensemble du système de maison intelligente, y compris les caméras de sécurité ou les systèmes d'alarme", ont écrit les chercheurs. Entreprise rapide. Ils ont également organisé une démonstration pour montrer comment une telle attaque pourrait être utilisée pour désactiver une caméra de sécurité.
Il y a un hic à cette attaque théorique: les chercheurs ne l’ont pas encore lancée par diffusion. Au lieu de cela, ils ont transmis les fichiers falsifiés contenant la commande audio cachée directement aux assistants afin qu'ils entendent clairement le message. Cependant, les scientifiques sont convaincus que l’attaque pourrait être menée par un autre moyen. "En général, il est possible de masquer n'importe quelle transcription dans n'importe quel fichier audio avec un taux de réussite de près de 100 pour cent", concluent-ils dans leur article.
Il n’existe pas beaucoup de moyens de se défendre contre une telle attaque, qui, pour être clair, nécessiterait beaucoup d’efforts pour être exécutée et est peu probable, même si cela est possible. Utilisez les paramètres de sécurité de l'assistant vocal de votre choix pour empêcher tout accès aux informations sensibles. Sur Alexa, par exemple, vous pouvez exiger un code PIN à fournir avant de finaliser un achat.
Recommandations des rédacteurs
- Qu'est-ce qu'Amazon Alexa et que peut-il faire?
- Les meilleures compétences Alexa à utiliser sur votre Amazon Echo en 2023
- Comment trouver des fantômes avec Alexa (et d'autres compétences effrayantes)
- Comment vendre à vos parents un assistant intelligent
- 5 utilisations uniques et créatives de la fonction de détection sonore d'Alexa
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.