Forskere finner en måte å hacke telefonen din med talekommandoer

talekommando hack google now nexus 6
Mellom malware gjemmer seg i tilsynelatende uskyldige apper og dødelige rekker av emoji, kampen for å holde smartenhetene våre sikre er en uendelig kamp. Hver ny modus for interaksjon, enten det er talekontroll eller en unik identifikator som et fingeravtrykk eller ansiktsbehandling anerkjennelse, presenterer et annet sted der hackere kan få tilgang til og manipulere teknologien rundt oss.

Forskerne ved UC Berkeley og Georgetown University er godt klar over dette, og det var derfor de i fjor bestemte seg for å undersøke nøyaktig hvor sårbare stemmegjenkjenningsprogramvaren som driver så mange av våre dataenheter egentlig er. De fokuserte på Google Assistant, som lever over hele systemet Android og i Google-appen på iOS, og utviklet en måte å forvanske stemmekommandoer akkurat nok til at Google Assistant kunne forstå dem, men de var uforståelige for de fleste mennesker.

Anbefalte videoer

Forskere testet gjenkjennelsen av flere obfuskerte kommandoer, som "OK Google", og målte programvarens evne til å tyde meldingen sammenlignet med menneskers. Det de fant, spesielt i tilfellet «OK Google», var at panelet med deltakere bare var i stand å identifisere den krypterte frasen 22 prosent av tiden, men assistenten forsto den 95 prosent av tid. Dessuten var programvaren bedre til å dekode den obfuskerte versjonen enn den normale uttalen av "OK Google", som ga en gjenkjenningsgrad på bare 90 prosent.

I slekt

  • Eksperter advarer om at AI-assistenter skader barns sosiale utvikling
  • Amazon Echo er fortsatt konge blant smarthøyttalere til tross for synkende markedsandeler i USA
  • Alexa-høyttaleren din kan hackes med ondsinnede lydspor. Og lasere.

Demo VoiceHack

Ved første øyekast kan mange av disse forvrengte kommandoene bare fremstå som statiske med den vage tråkkfrekvensen til tale, bare øket. Som mennesker, når vi vet hva uttrykket er før vi hører det, blir det uendelig mye lettere å identifisere. Men uten den informasjonen blir vi i mange tilfeller lamslått.

Studien bemerker at noen av de sammenblevne kommandoene er lettere for oss å finne ut enn andre. «Ring 911», for eksempel, ga en menneskelig gjenkjennelsesrate på 94 prosent, sammenlignet med bare 40 prosent av Google Assistent, sannsynligvis fordi det er en setning det store flertallet av amerikansk engelsktalende har blitt forutsatt til høre. Men den riktige kombinasjonen av en nisjekommando endret akkurat nok slik at våre personlige assistenter er mottakelige for det mens vi er å klø seg i hodet utgjør en åpenbar risiko, med tanke på at stemmekontroller i de fleste forbrukerenheter mangler noen form for autentisering.

Hva kan vi gjøre for å beskytte mot stemmehacking?

En av de få forebyggende tiltakene mot denne typen stemmemålrettet manipulasjon er at mange kommandoer ber assistenter om å be om bekreftelse etterpå. Imidlertid, som The Atlantic påpeker i deres artikkel om studiet, det er bare en liten veisperring å fjerne med et forvrengt "ja", og hvis alt skjer for fort til at brukeren skjønner hva som skjer, vil de ikke kunne stoppe det i tide.

Noen av de sammenblandet kommandoer er lettere for oss å finne ut enn andre.

Teamet fulgte opp oppdagelsen ved å foreslå måter tjenester som Google Assistant, Apples Siri og Amazons Alexa kunne avverge disse angrepene, og det viser seg at det finnes en rekke metoder som selskaper kan være tilbøyelige til å implementere. Noen forsvar, som en lyd-CAPTCHA, kan bli kastet inn som en endelig bekreftelse for å skille menneskelige brukere fra maskiner - selv om forskerne peker ut at algoritmene som driver lyd-CAPTCHA-er er relativt utdaterte og ikke har holdt tritt med fremskritt gjort innen talegjenkjenningsteknologi. For ikke å nevne, CAPTCHA er irriterende å håndtere.

En mer komplisert løsning er å skreddersy gjenkjennelse til eierens stemme, som mange tjenester allerede bruker i begrenset kapasitet. Rapporten innrømmer imidlertid at forslaget krever opplæring fra enhetens side, og utgjør et problem for dingser som skal brukes av flere personer, som Amazon Echo. Teamet har bestemt at et av de mest praktiske og effektive forsvarene vil være et filter som forringer lyden litt kvaliteten på kommandoer, noe som gjør de fleste tilslørte fraser ugjenkjennelige for enheten samtidig som det lar mennesker passere gjennom.

Selv om rapporter om stemmebaserte angrep av denne typen er uvanlige, om ikke fraværende, er det alltid nyttig å være oppmerksom på områder hvor sårbarhetene ligger slik at de kan dempes før problemer virkelig begynner å dukke opp opp. Takket være forskningen som er gjort her, vil vi være litt mer forberedt i tilfelle en bølge av satanisk-klingende hvisking begynner å fortelle smarttelefonene våre hva de skal gjøre.

Redaktørenes anbefalinger

  • Glem ChatGPT – Siri og Google Assistant gjør disse 4 tingene bedre
  • Siri og Google Assistant sier at de nå støtter Black Lives Matter
  • Alexa kan nå vise mer følelser når idrettslaget ditt taper
  • Ny forskning finner at smarte høyttalere kan bli kompromittert av lasere
  • Googles nye personvernoppdatering lar deg slette assistentens talekommandohistorikk

Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.