Lintujen viserrys voi hakkeroida Alexan kaltaisia ​​ääniassistentteja

BestAI Assistant/Flickr

Se viattomalta kuuloinen lintu, joka laulaa aamulauluaan, ei ehkä olekaan niin viaton. Saksan Bochumissa sijaitsevan Ruhr-Universitaetin tutkijoiden mukaan lintujen sirkutuksen aiheuttamia manipuloituja ääniaaltoja voitaisiin käyttää hyökkäämiseen ääniavustajia vastaan.

Tutkijoiden mukaan manipuloidut äänitiedostot ovat osa niin kutsuttua "vastuullista hyökkäystä". joka on suunniteltu hämmentämään syvät hermoverkot, jotka auttavat tekoälyllä toimivia avustajia, kuten Applen Siri, Googlen Assistant, ja Amazonin Alexa toiminto.

Suositellut videot

Lintujen sirkutuksen ääni – tai kappaleiden tai ihmisen puheen muokattuja versioita – manipuloidaan siten, että vain älykaiuttimesi mikrofoni tai älypuhelin voi poimia, hyökkäys ohittaa havaitsemisen ihmiskorvista ja alkaa sekaantua A.I: n toimintaan. avustaja. Se, mikä kuulostaa linnun laululta, voi itse asiassa olla yksi näistä hyökkäyksistä, joissa piilotetut komennot toimitetaan valitsemallesi ääniavustajallesi.

Liittyvät

  • Chromen näkemys Nvidia DLSS: stä on käynnistymässä, mutta et voi vielä käyttää sitä
  • 9 tapaa Google Assistant voi auttaa kiitospäivänä
  • Asiantuntijat varoittavat tekoälyassistentit vahingoittavat lasten sosiaalista kehitystä

Tutkijat ehdottavat, että hyökkäykset, jotka käyttävät psykoakustista piiloutumista peittämään heidän todelliset aikeensa, voitaisiin toistaa sovelluksen kautta tai piilottaa muun tyyppiseen lähetykseen. Ääni voidaan esimerkiksi piilottaa mainokseen, joka soi televisiossa tai radiossa, jotta se osuisi tuhansiin kohteisiin kerralla.

"[Pahimmassa tapauksessa] hyökkääjä voi saada haltuunsa koko älykkään kodin järjestelmän, mukaan lukien turvakamerat tai hälytysjärjestelmät", tutkijat kirjoittivat. Nopea Yritys. He myös kokosivat esittelyn osoittaakseen, kuinka tällaista hyökkäystä voidaan käyttää turvakameran deaktivoimiseen.

Tässä teoreettisessa hyökkäyksessä on saalis: tutkijat eivät ole vielä käynnistäneet sitä lähetyksenä. Sen sijaan he ovat syöttäneet kätketyt tiedostot, jotka sisältävät piilotetun äänikomennon suoraan avustajille, jotta he kuulevat viestin selvästi. Tiedemiehet uskovat kuitenkin, että hyökkäys voitaisiin toteuttaa jollain muulla tavalla. "Yleensä on mahdollista piilottaa mikä tahansa transkriptio missä tahansa äänitiedostossa lähes 100 prosentin onnistumisprosentilla", he päättelivät artikkelissaan.

Tällaista hyökkäystä vastaan ​​ei ole monia tapoja puolustautua, mikä on selvää, että sen toteuttaminen vaatisi joltakulta melkoista vaivaa ja on epätodennäköistä, vaikka mahdollista. Käytä valitsemasi ääniavustajan suojausasetuksia estääksesi pääsyn arkaluonteisiin tietoihin. Päällä Alexavoit esimerkiksi vaatia PIN-koodin toimitettava ennen oston suorittamista.

Toimittajien suositukset

  • Mikä on Amazon Alexa ja mitä se voi tehdä?
  • Parhaat Alexa-taidot, joita voit käyttää Amazon Echossa vuonna 2023
  • Kuinka löytää haamuja Alexan (ja muiden pelottavien taitojen) avulla
  • Kuinka myydä vanhempasi älykkäällä avustajalla
  • 5 ainutlaatuista ja luovaa käyttötapaa Alexan äänentunnistusominaisuuteen

Päivitä elämäntapasiDigital Trends auttaa lukijoita pysymään tekniikan nopeatempoisessa maailmassa uusimpien uutisten, hauskojen tuotearvostelujen, oivaltavien toimitusten ja ainutlaatuisten kurkistusten avulla.