Forskare hittar ett sätt att hacka din telefon med röstkommandon

röstkommando hacka google now nexus 6
Mellan skadlig programvara som gömmer sig i till synes oskyldiga appar och dödliga strängar av emoji, kampen för att hålla våra smarta enheter säkra är aldrig sinande. Varje nytt sätt för interaktion, vare sig det är röststyrning eller en unik identifierare som ett fingeravtryck eller ansiktsbehandling igenkänning, presenterar en annan plats genom vilken hackare kan komma åt och manipulera tekniken runt oss.

Forskarna vid UC Berkeley och Georgetown University är mycket medvetna om detta, varför de förra året beslutade att undersöka exakt hur sårbara Den röstigenkänningsmjukvara som driver så många av våra datorenheter är verkligen. De fokuserade på Google Assistant, som lever över hela systemet Android och inom Google-appen på iOS, och utvecklade ett sätt att förvränga röstkommandon precis så mycket att Google Assistant kunde förstå dem, men de var obegripliga för de flesta människor.

Rekommenderade videor

Forskare testade igenkänningen av flera obfuskerade kommandon, som "OK Google", och mätte programvarans förmåga att dechiffrera meddelandet jämfört med människors. Vad de fann, särskilt i fallet med "OK Google", var att panelen med deltagare bara kunde för att identifiera den förvrängda frasen 22 procent av gångerna, men assistenten förstod det 95 procent av tid. Dessutom var programvaran bättre på att avkoda den obfuskerade versionen än det normala uttalet "OK Google", vilket gav en igenkänningsgrad på endast 90 procent.

Relaterad

  • Experter varnar för att AI-assistenter skadar barns sociala utveckling
  • Amazon Echo är fortfarande kung bland smarta högtalare trots minskande amerikanska marknadsandelar
  • Din Alexa-högtalare kan hackas med skadliga ljudspår. Och lasrar.

Demo VoiceHack

Vid första anblicken kan många av dessa förvrängda kommandon bara bli statiska med talets vaga kadens, bara påskyndas. Som människor, när vi vet vad frasen är innan vi hör det, blir det oändligt mycket lättare att identifiera. Men utan den informationen står vi i många fall förvirrade.

Studien noterar att vissa av de sammanförda kommandona är lättare för oss att ta reda på än andra. "Ring 911", till exempel, gav en mänsklig igenkänningsgrad på 94 procent, jämfört med endast 40 procent av Google Assistent, förmodligen för att det är en fras som den stora majoriteten av amerikansk engelsktalande har förutsatts för höra. Men den rätta kombinationen av ett nischkommando ändrades precis tillräckligt så att våra personliga assistenter är mottagliga för det medan vi är att klia oss i huvudet utgör en uppenbar risk, med tanke på att röstkontroller i de flesta konsumentenheter saknar någon form av autentisering.

Vad kan vi göra för att skydda mot rösthackning?

En av de få förebyggande åtgärderna mot denna typ av röstinriktad manipulation är att många kommandon uppmanar assistenter att begära bekräftelse efteråt. Men som The Atlantic påpekar i deras inlägg om studien, det är bara en liten vägspärr att rensa med ett förvrängt "ja", och om allt händer för snabbt för att användaren ska kunna inse vad som händer, kommer de inte att kunna stoppa det i tid.

Vissa av de sammanhopade kommandona är lättare för oss att ta reda på än andra.

Teamet följde upp sin upptäckt genom att föreslå sätt tjänster som Google Assistant, Apples Siri och Amazons Alexa skulle kunna avvärja dessa attacker, och det visar sig att det finns en mängd olika metoder som företag kan vara benägna att implementera. Vissa försvar, som en ljud-CAPTCHA, skulle kunna kastas in som en sista bekräftelse för att skilja mänskliga användare från maskiner - även om forskarna pekar ut att algoritmerna som driver ljud-CAPTCHA är relativt föråldrade och inte har hållit jämna steg med framsteg som gjorts inom taligenkänningsteknik. För att inte tala om, CAPTCHA är irriterande att ha att göra med.

En mer komplicerad lösning är att skräddarsy igenkänningen efter ägarens röst, som många tjänster redan använder i begränsad kapacitet. Men rapporten medger att förslaget kräver utbildning från enhetens sida och utgör ett problem för prylar som är avsedda att användas av flera personer, som Amazon Echo. Teamet har bestämt att ett av de mest praktiska och effektiva försvaren skulle vara ett filter som försämrar ljudet något kvaliteten på kommandon, vilket gör de flesta obfuskerade fraser oigenkännliga för enheten samtidigt som mänskliga kan passera genom.

Även om rapporter om röstbaserade attacker av den här typen är ovanliga, om inte obefintliga, är det alltid till hjälp att vara medveten om områden där sårbarheter ligger så att de kan stävjas innan problem verkligen börjar dyka upp upp. Tack vare forskningen som görs här kommer vi att vara lite mer förberedda om en våg av sataniskt klingande viskningar börjar tala om för våra smartphones vad de ska göra.

Redaktörens rekommendationer

  • Glöm ChatGPT — Siri och Google Assistant gör dessa fyra saker bättre
  • Siri och Google Assistant säger att de nu stöder Black Lives Matter
  • Alexa kan nu visa mer känslor när ditt idrottslag förlorar
  • Ny forskning visar att smarta högtalare kan äventyras av laser
  • Googles nya sekretessuppdatering låter dig radera assistentens röstkommandohistorik

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.