Zvuk cvrkuta ptica može hakirati glasovne asistente kao što je Alexa

Najbolji AI pomoćnik/Flickr

Ta ptica koja nevino zvuči i pjeva svoju jutarnju pjesmu možda ipak nije tako nevina. Prema znanstvenicima sa Ruhr-Universitaet u Bochumu u Njemačkoj, manipulirani audio valovi iz zvukova cvrkuta ptica mogli bi se koristiti za pokretanje napada na glasovne asistente.

Prema istraživačima, manipulirane audio datoteke dio su onoga što se naziva "suparnički napad", koji je osmišljen kako bi zbunio duboke neuronske mreže koje pomažu pomoćnicima koji se pokreću umjetnom inteligencijom poput Appleov Siri, Googleov Pomoćnik, i Amazonov Alexa funkcija.

Preporučeni videozapisi

Korištenje zvuka cvrkuta ptica — ili uređenih verzija pjesama ili ljudskog govora — manipuliranih na način da samo mikrofon na vašem pametnom zvučniku ili pametni telefon može pokupiti, napad zaobilazi detekciju ljudskih ušiju i počinje se miješati u A.I. asistent. Ono što zvuči kao ptičji pjev zapravo bi mogao biti jedan od ovih napada sa skrivenim naredbama koje se isporučuju glasovnom asistentu po izboru.

Povezano

  • Chromeov pristup Nvidia DLSS-u je spreman za pokretanje, ali ga još ne možete koristiti
  • 9 načina na koje vam Google pomoćnik može pomoći za Dan zahvalnosti
  • Stručnjaci upozoravaju da AI pomoćnici štete društvenom razvoju djece

Istraživači sugeriraju da bi se napadi, koji koriste psihoakustičko skrivanje kako bi prikrili svoje prave namjere, mogli reproducirati putem aplikacije ili sakriti u drugoj vrsti emitiranja. Na primjer, zvuk se može sakriti u reklami koja se prikazuje na TV-u ili radiju kako bi se pogodilo tisuće meta odjednom.

"[U] najgorem slučaju, napadač bi mogao preuzeti cijeli sustav pametne kuće, uključujući sigurnosne kamere ili alarmne sustave", napisali su istraživači, prema Brza tvrtka. Također su sastavili demonstraciju kako bi pokazali kako se takav napad može iskoristiti za deaktiviranje sigurnosne kamere.

Postoji caka u ovom teoretskom napadu: istraživači ga još nisu pokrenuli putem emitiranja. Umjesto toga, ubacili su spremne datoteke koje sadrže skrivenu audio naredbu izravno u pomoćnike kako bi jasno čuli poruku. Međutim, znanstvenici su uvjereni da bi napad mogao biti izveden na drugi način. "Općenito, moguće je sakriti bilo koju transkripciju u bilo kojoj audio datoteci sa stopom uspješnosti od gotovo 100 posto", zaključili su u svom radu.

Ne postoji puno načina za obranu od takvog napada, koji bi, da budemo jasni, zahtijevao priličan napor da bi ga netko izvršio i malo je vjerojatan, čak i ako je moguć. Upotrijebite sigurnosne postavke na glasovnom asistentu po izboru kako biste spriječili pristup osjetljivim informacijama. Na Alexa, na primjer, možete zahtijevati PIN dostaviti prije dovršetka kupnje.

Preporuke urednika

  • Što je Amazon Alexa i što može?
  • Najbolje Alexa vještine koje možete koristiti na svom Amazon Echou 2023
  • Kako pronaći duhove s Alexom (i drugim zastrašujućim vještinama)
  • Kako svojim roditeljima prodati pametnog asistenta
  • 5 jedinstvenih i kreativnih upotreba Alexine značajke otkrivanja zvuka

Nadogradite svoj životni stilDigitalni trendovi pomažu čitateljima da prate brzi svijet tehnologije sa svim najnovijim vijestima, zabavnim recenzijama proizvoda, pronicljivim uvodnicima i jedinstvenim brzim pregledima.