I ricercatori trovano un modo per hackerare il tuo telefono con i comandi vocali

Comandi vocali hackerare Google Now Nexus 6
Tra malware nascosto in app apparentemente innocenti e stringhe mortali di emoji, la battaglia per proteggere i nostri dispositivi intelligenti è senza fine. Ogni nuova modalità di interazione, che si tratti di controllo vocale o di un identificatore univoco come un'impronta digitale o un facciale riconoscimento, presenta un altro luogo attraverso il quale gli hacker possono accedere e manipolare la tecnologia circostante noi.

I ricercatori dell’UC Berkeley e della Georgetown University ne sono ben consapevoli, motivo per cui l’anno scorso hanno deciso di farlo indagare con precisione quanto sia vulnerabile il software di riconoscimento vocale che alimenta tanti dei nostri dispositivi informatici lo è davvero. Si sono concentrati su Assistente Google, che continua a vivere a livello di sistema Androide e all'interno dell'app Google su iOS e ha sviluppato un modo per confondere i comandi vocali quanto basta per consentire all'Assistente Google di capirli, ma erano incomprensibili alla maggior parte degli esseri umani.

Video consigliati

I ricercatori hanno testato il riconoscimento di diversi comandi offuscati, come “OK Google”, e hanno misurato la capacità del software di decifrare il messaggio rispetto a quella degli esseri umani. Ciò che hanno scoperto, soprattutto nel caso di “OK Google”, è che il gruppo di partecipanti era solo in grado di farlo identificare la frase criptata il 22% delle volte, ma l'Assistente la capiva il 95% delle volte tempo. Inoltre, il software è riuscito a decodificare meglio la versione offuscata rispetto alla pronuncia normale di “OK Google”, che ha prodotto un tasso di riconoscimento solo del 90%.

Imparentato

  • Gli esperti avvertono che gli assistenti di intelligenza artificiale stanno danneggiando lo sviluppo sociale dei bambini
  • Amazon Echo è ancora il re tra gli altoparlanti intelligenti nonostante il calo della quota di mercato negli Stati Uniti
  • Il tuo altoparlante Alexa può essere violato con tracce audio dannose. E laser.

Demo VoiceHack

A prima vista, molti di questi comandi distorti potrebbero sembrare statici con la vaga cadenza del discorso, solo accelerata. Come esseri umani, quando sappiamo qual è la frase prima di sentirla, diventa infinitamente più facile identificarla. Ma senza queste informazioni, in molti casi, rimaniamo perplessi.

Lo studio rileva che alcuni comandi confusi sono più facili da capire rispetto ad altri. “Chiama il 911”, ad esempio, ha prodotto un tasso di riconoscimento umano del 94%, rispetto al solo 40% di Google Assistant, probabilmente perché è una frase a cui la stragrande maggioranza degli anglofoni americani è stata precondizionata ascoltare. Ma la giusta combinazione di un comando di nicchia è stata modificata quanto basta affinché i nostri assistenti personali siano ricettivi mentre siamo Lasciarsi grattare la testa rappresenta un rischio evidente, considerando che i controlli vocali nella maggior parte dei dispositivi di consumo non ne sono dotati autenticazione.

Cosa possiamo fare per proteggerci dall’hacking vocale?

Una delle poche misure preventive contro questo tipo di manipolazione vocale è che molti comandi spingono gli assistenti a richiedere successivamente la conferma. Tuttavia, come sottolinea The Atlantic il loro pezzo sullo studio, si tratta solo di un piccolo ostacolo da superare con un "sì" distorto e se tutto accade troppo in fretta perché l'utente possa rendersi conto di cosa sta succedendo, non sarà in grado di fermarlo in tempo.

Alcuni dei comandi confusi sono più facili da capire rispetto ad altri.

Il team ha proseguito la sua scoperta proponendo servizi come l’Assistente Google, Siri di Apple e Amazon Alexa potrebbe scongiurare questi attacchi e risulta che esistono diversi metodi che le aziende potrebbero essere propense a implementare. Alcune difese, come un CAPTCHA audio, potrebbero essere introdotte come conferma finale per distinguere gli utenti umani dalle macchine, anche se i ricercatori sottolineano notare che gli algoritmi che alimentano i CAPTCHA audio sono relativamente obsoleti e non hanno tenuto il passo con i progressi compiuti nella tecnologia di riconoscimento vocale. Per non parlare del fatto che i CAPTCHA sono esasperanti da affrontare.

Una soluzione più complicata è adattare il riconoscimento alla voce del proprietario, che molti servizi già utilizzano in modo limitato. Tuttavia, il rapporto ammette che la proposta richiede formazione da parte del dispositivo e pone un problema per i gadget destinati ad essere utilizzati da più persone, come Amazon Echo. Il team ha stabilito che una delle difese più pratiche ed efficaci sarebbe un filtro che degrada leggermente l'audio qualità dei comandi, rendendo la maggior parte delle frasi offuscate irriconoscibili per il dispositivo e consentendo il passaggio di quelle umane Attraverso.

Sebbene le segnalazioni di attacchi vocali di questo tipo siano rare, se non inesistenti, sono sempre utili essere consapevoli delle aree in cui si trovano le vulnerabilità in modo che possano essere frenate prima che i problemi inizino davvero a manifestarsi su. Grazie alla ricerca condotta qui, saremo un po’ più preparati nel caso in cui un’ondata di sussurri dal suono satanico inizi a dire ai nostri smartphone cosa fare.

Raccomandazioni degli editori

  • Dimentica ChatGPT: Siri e Google Assistant fanno meglio queste 4 cose
  • Siri e Google Assistant affermano che ora supportano Black Lives Matter
  • Alexa ora può mostrare più emozioni quando la tua squadra sportiva perde
  • Una nuova ricerca rileva che gli altoparlanti intelligenti possono essere compromessi dai laser
  • Il nuovo aggiornamento sulla privacy di Google ti consente di eliminare la cronologia dei comandi vocali dell'Assistente

Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.