Il suono del cinguettio degli uccelli può hackerare gli assistenti vocali come Alexa

Miglior Assistente AI/Flickr

Quell'uccello dal suono innocente che canta la sua canzone mattutina potrebbe non essere così innocente, dopo tutto. Secondo gli scienziati della Ruhr-Universitaet di Bochum, in Germania, le onde audio manipolate dai suoni del cinguettio degli uccelli potrebbero essere utilizzate per lanciare un attacco contro gli assistenti vocali.

Secondo i ricercatori, i file audio manipolati fanno parte di quello che viene chiamato un “attacco contraddittorio”. che è progettato per confondere le reti neurali profonde che aiutano gli assistenti basati sull'intelligenza artificiale Mele Siri, di Google Assistentee quello di Amazon Alexa funzione.

Video consigliati

Utilizzando il suono del cinguettio degli uccelli, o versioni modificate di canzoni o discorsi umani, manipolati in modo tale che solo il microfono dell'altoparlante intelligente o smartphone può captare, l'attacco bypassa il rilevamento delle orecchie umane e inizia a interferire con l'I.A. assistente. Quello che sembra il canto di un uccello potrebbe in realtà essere uno di questi attacchi con comandi nascosti inviati al tuo assistente vocale preferito.

Imparentato

  • La versione di Chrome di Nvidia DLSS è pronta per essere lanciata, ma non puoi ancora utilizzarla
  • 9 modi in cui l'Assistente Google può aiutarti durante il Ringraziamento
  • Gli esperti avvertono che gli assistenti di intelligenza artificiale stanno danneggiando lo sviluppo sociale dei bambini

I ricercatori suggeriscono che gli attacchi, che utilizzano il nascondimento psicoacustico per mascherare le loro vere intenzioni, potrebbero essere riprodotti tramite un’app o nascosti in un altro tipo di trasmissione. Ad esempio, il suono potrebbe essere nascosto in uno spot pubblicitario trasmesso in TV o alla radio per colpire migliaia di obiettivi contemporaneamente.

"[Nello] scenario peggiore, un utente malintenzionato potrebbe essere in grado di assumere il controllo dell'intero sistema di casa intelligente, comprese le telecamere di sicurezza o i sistemi di allarme", hanno scritto i ricercatori, per Compagnia veloce. Hanno anche organizzato una dimostrazione per mostrare come un simile attacco potrebbe essere utilizzato per disattivare una telecamera di sicurezza.

C’è un problema in questo attacco teorico: i ricercatori non l’hanno ancora lanciato tramite una trasmissione. Invece, hanno fornito i file modificati che contengono il comando audio nascosto direttamente agli assistenti in modo che possano ascoltare chiaramente il messaggio. Tuttavia, gli scienziati sono fiduciosi che l’attacco possa essere effettuato con altri mezzi. "In generale, è possibile nascondere qualsiasi trascrizione in qualsiasi file audio con una percentuale di successo di quasi il 100%", hanno concluso nel loro articolo.

Non ci sono molti modi per difendersi da un simile attacco, che, per essere chiari, richiederebbe un discreto sforzo da parte di qualcuno per essere eseguito ed è improbabile, anche se possibile. Utilizza le impostazioni di sicurezza del tuo assistente vocale preferito per impedire qualsiasi accesso a informazioni sensibili. SU Alexa, ad esempio, puoi richiedere un PIN da fornire prima di completare un acquisto.

Raccomandazioni degli editori

  • Cos'è Amazon Alexa e cosa può fare?
  • Le migliori competenze Alexa da utilizzare sul tuo Amazon Echo nel 2023
  • Come trovare i fantasmi con Alexa (e altre abilità spaventose)
  • Come vendere ai tuoi genitori un assistente intelligente
  • 5 usi unici e creativi per la funzione Rilevamento suoni di Alexa

Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.