Istraživači pronašli način da hakiraju vaš telefon glasovnim naredbama

glasovna naredba hack google now nexus 6
Između zlonamjernog softvera koji se skriva u naizgled nedužnim aplikacijama i smrtonosni nizovi emotikona, bitka za očuvanje sigurnosti naših pametnih uređaja nema kraja. Svaki novi način interakcije, bilo da se radi o glasovnoj kontroli ili jedinstvenom identifikatoru poput otiska prsta ili lica prepoznavanja, predstavlja još jedno mjesto na kojem hakeri mogu pristupiti tehnologiji i manipulirati njome nas.

Istraživači s UC Berkeley i Sveučilišta Georgetown toga su itekako svjesni, zbog čega su prošle godine odlučili točno istražite koliko ranjivi softver za prepoznavanje glasa koji pokreće toliko naših računalnih uređaja doista jest. Usredotočili su se na Google pomoćnik, koji živi u cijelom sustavu Android i unutar aplikacije Google na iOS-u, te je razvio način za iskrivljavanje glasovnih naredbi dovoljno da ih Google pomoćnik može razumjeti, ali su bile nerazumljive većini ljudi.

Preporučeni videozapisi

Istraživači su testirali prepoznavanje nekoliko zamagljenih naredbi, poput "OK Google", i izmjerili sposobnost softvera da dešifrira poruku u usporedbi s ljudskom. Ono što su otkrili, posebno u slučaju "OK Google", jest da je panel sudionika bio u mogućnosti samo identificirati kodirani izraz 22 posto vremena, ali Asistent ga je razumio 95 posto vrijeme. Štoviše, softver je bio bolji u dekodiranju maskirane verzije od normalnog izgovora "OK Google", što je dalo stopu prepoznavanja od samo 90 posto.

Povezano

  • Stručnjaci upozoravaju da AI pomoćnici štete društvenom razvoju djece
  • Amazon Echo i dalje je kralj među pametnim zvučnicima unatoč padu tržišnog udjela u SAD-u
  • Vaš Alexa zvučnik može biti hakiran zlonamjernim audio zapisima. I laseri.

Demo VoiceHack

Na prvi pogled, mnoge od ovih iskrivljenih naredbi mogu djelovati kao statične s nejasnom kadencom govora, samo ubrzanom. Kao ljudi, kada znamo što je fraza prije nego što je čujemo, postaje je neizmjerno lakše identificirati. Ali bez te informacije, u mnogim slučajevima, ostajemo zatečeni.

Studija primjećuje da nam je neke od zbrkanih naredbi lakše shvatiti nego druge. Na primjer, "Poziv hitnoj pomoći" dao je stopu ljudskog prepoznavanja od 94 posto, u usporedbi sa samo 40 posto Googlea Asistent, vjerojatno zato što je to fraza na koju je velika većina govornika američkog engleskog preduvjetna čuti. No, prava kombinacija nišne naredbe izmijenjena je taman toliko da je naši osobni asistenti mogu prihvatiti dok smo lijevo češkanje po glavi predstavlja očit rizik, s obzirom na to da glasovne kontrole u većini potrošačkih uređaja nemaju nikakav oblik ovjera.

Što možemo učiniti da se zaštitimo od hakiranja glasa?

Jedna od rijetkih preventivnih mjera protiv ove vrste glasovno ciljane manipulacije jest da mnoge naredbe pozivaju pomoćnike da naknadno zatraže potvrdu. Međutim, kako The Atlantic ističe u njihov članak o studiju, to je samo mala prepreka koju treba ukloniti iskrivljenim "da", a ako se sve događa prebrzo da bi korisnik shvatio što se događa, neće to moći zaustaviti na vrijeme.

Neke od zbrkanih naredbi lakše smo shvatiti nego druge.

Tim je pratio svoje otkriće predlažući načine na koje usluge poput Google Assistanta, Appleove Siri i Amazonove Alexa mogao spriječiti ove napade, a pokazalo se da postoje različite metode koje bi tvrtke mogle implementirati. Neke obrane, poput audio CAPTCHA, mogle bi se ubaciti kao konačna potvrda za razlikovanje ljudskih korisnika od strojeva - iako istraživači ističu da su algoritmi koji pokreću audio CAPTCHA relativno zastarjeli i ne drže korak s napretkom tehnologije prepoznavanja govora. Da ne spominjemo, CAPTCHA je bijesno raditi s njima.

Složenije rješenje je prilagođavanje prepoznavanja glasu vlasnika, što mnoge usluge već koriste u ograničenom kapacitetu. Međutim, izvješće priznaje da prijedlog zahtijeva obuku na dijelu uređaja i predstavlja problem za gadgete namijenjene za korištenje od strane više ljudi, kao što je Amazon Echo. Tim je utvrdio da bi jedna od najpraktičnijih i najučinkovitijih obrana bio filtar koji malo degradira zvuk kvaliteta naredbi, čineći većinu zamagljenih izraza neprepoznatljivima za uređaj, a dopuštajući ljudskim onima da prođu kroz.

Iako su izvješća o glasovnim napadima ove vrste neuobičajena, ako ne i nepostojeća, uvijek su korisna biti svjestan područja u kojima leže ranjivosti kako bi se one mogle obuzdati prije nego što problemi stvarno počnu iskakati gore. Zahvaljujući ovdje provedenom istraživanju, bit ćemo malo spremniji u slučaju da val sotonističkih šaputanja počne govoriti našim pametnim telefonima što da rade.

Preporuke urednika

  • Zaboravite ChatGPT — Siri i Google Assistant rade ove 4 stvari bolje
  • Siri i Google Assistant kažu da sada podržavaju Black Lives Matter
  • Alexa sada može pokazati više emocija kada vaš sportski tim izgubi
  • Nova istraživanja otkrivaju da pametni zvučnici mogu biti ugroženi laserima
  • Googleovo novo ažuriranje privatnosti omogućuje brisanje povijesti glasovnih naredbi Asistenta

Nadogradite svoj životni stilDigitalni trendovi pomažu čitateljima da prate brzi svijet tehnologije sa svim najnovijim vijestima, zabavnim recenzijama proizvoda, pronicljivim uvodnicima i jedinstvenim brzim pregledima.