Zvok ptičjega žvrgolenja lahko vdre v glasovne pomočnike, kot je Alexa

BestAI Assistant/Flickr

Ta nedolžno zveneča ptica, ki poje svojo jutranjo pesem, morda vendarle ni tako nedolžna. Po mnenju znanstvenikov z Ruhr-Universitaet v Bochumu v Nemčiji bi lahko manipulirane zvočne valove iz zvokov ptičjega žvrgolenja uporabili za napad na glasovne pomočnike.

Po mnenju raziskovalcev so manipulirane zvočne datoteke del tega, kar se imenuje "kontradiktorni napad". ki je zasnovan tako, da zmede globoke nevronske mreže, ki pomagajo pomočnikom, ki jih poganja umetna inteligenca, kot so Jabolka Siri, Googlov Pomočnik, in Amazon Alexa funkcijo.

Priporočeni videoposnetki

Uporaba zvoka ptičjega žvrgolenja – ali urejenih različic pesmi ali človeškega govora – manipuliranega na način, da samo mikrofon na vašem pametnem zvočniku oz. pametni telefon lahko pobere, napad obide zaznavanje človeških ušes in se začne vmešavati v A.I. pomočnik. Kar zveni kot ptičje petje, bi lahko bil dejansko eden od teh napadov s skritimi ukazi, ki se posredujejo vašemu glasovnemu pomočniku po izbiri.

Povezano

  • Chromov pogled na Nvidia DLSS je nastavljen, vendar ga še ne morete uporabljati
  • 9 načinov, kako lahko Google Assistant pomaga pri zahvalnem dnevu
  • Strokovnjaki opozarjajo, da pomočniki z umetno inteligenco škodijo socialnemu razvoju otrok

Raziskovalci menijo, da bi lahko napade, ki uporabljajo psihoakustično skrivanje za prikrivanje svojih resničnih namenov, predvajali prek aplikacije ali skrili v drugi vrsti oddajanja. Zvok je lahko na primer skrit v reklami, ki se predvaja na televiziji ali radiu in tako zadene na tisoče tarč hkrati.

"[V] najslabšem primeru lahko napadalec prevzame celoten sistem pametnega doma, vključno z varnostnimi kamerami ali alarmnimi sistemi," so zapisali raziskovalci. Hitro podjetje. Pripravili so tudi predstavitev, da bi pokazali, kako bi lahko tak napad uporabili za deaktiviranje varnostne kamere.

Ta teoretični napad ima ulov: raziskovalci ga še niso sprožili prek oddaje. Namesto tega so prirejene datoteke, ki vsebujejo skrite zvočne ukaze, posredovali neposredno pomočnikom, tako da jasno slišijo sporočilo. Vendar pa so znanstveniki prepričani, da bi napad lahko izvedli na drug način. "Na splošno je mogoče skriti kakršen koli prepis v kateri koli zvočni datoteki s skoraj 100-odstotno uspešnostjo," so zaključili v svojem prispevku.

Ni veliko načinov za obrambo pred takšnim napadom, za katerega bi bilo jasno, da bi nekdo zahteval precej truda, da bi ga izvedel, in je malo verjeten, tudi če je možen. Uporabite varnostne nastavitve na svojem glasovnem pomočniku, da preprečite dostop do občutljivih informacij. Vklopljeno Alexa, na primer, lahko zahteva PIN na voljo pred zaključkom nakupa.

Priporočila urednikov

  • Kaj je Amazon Alexa in kaj zmore?
  • Najboljše veščine Alexa za uporabo na vašem Amazon Echo leta 2023
  • Kako najti duhove z Alexo (in drugimi strašljivimi veščinami)
  • Kako svojim staršem prodati pametnega pomočnika
  • 5 edinstvenih in ustvarjalnih uporab za Alexa funkcijo zaznavanja zvoka

Nadgradite svoj življenjski slogDigitalni trendi pomagajo bralcem slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.