Paukščių čiulbėjimas gali nulaužti tokius balso padėjėjus kaip Alexa

„BestAI Assistant“ / „Flickr“.

Tas nekaltai skambantis paukštis, giedantis savo ryto giesmę, gal ir nėra toks nekaltas. Pasak mokslininkų iš Ruhr-Universitaet Bochumo mieste (Vokietija), manipuliuojamos paukščių čiulbėjimo garso bangos gali būti panaudotos atakai prieš balso padėjėjus.

Tyrėjų teigimu, manipuliuoti garso failai yra vadinamosios „priešinės atakos“ dalis. kuris skirtas supainioti giluminius neuroninius tinklus, padedančius dirbtinio intelekto asistentams, pavyzdžiui Apple Siri, Google Asistentas, ir „Amazon“. Alexa funkcija.

Rekomenduojami vaizdo įrašai

Naudojant paukščių čiulbėjimo garsą arba redaguotas dainų versijas ar žmogaus kalbą, manipuliuojama taip, kad tik išmaniojo garsiakalbio mikrofonas arba išmanusis telefonas gali pakelti, ataka apeina aptikimą iš žmogaus ausų ir pradeda kištis į A.I. asistentas. Tai, kas skamba kaip paukščio giesmė, iš tikrųjų gali būti viena iš šių atakų, kai paslėptos komandos perduodamos jūsų pasirinktam balso asistentui.

Susijęs

  • Nustatyta, kad „Chrome“ įdiegta „Nvidia DLSS“ bus paleista, tačiau dar negalite jos naudoti
  • 9 būdai, kaip „Google“ padėjėjas gali padėti su Padėkos diena
  • Ekspertai perspėja, kad dirbtinio intelekto padėjėjai kenkia socialiniam vaikų vystymuisi

Tyrėjai teigia, kad išpuoliai, kurių metu naudojami psichoakustiniai slėpimai, siekiant užmaskuoti savo tikruosius ketinimus, gali būti žaidžiami naudojant programą arba paslėpti kito tipo transliacijoje. Pavyzdžiui, garsas gali būti paslėptas reklamoje, kuri rodoma per televiziją ar radiją, kad vienu metu būtų pasiekta tūkstančiai taikinių.

„Blogiausiu atveju užpuolikas gali perimti visą išmaniųjų namų sistemą, įskaitant apsaugos kameras ar signalizacijos sistemas“, – rašė tyrėjai. Greita kompanija. Jie taip pat parengė demonstraciją, kad parodytų, kaip tokia ataka gali būti panaudota apsaugos kamerai išjungti.

Ši teorinė ataka turi savo spąstus: tyrėjai jos dar nepaleido per transliaciją. Vietoj to, jie padavė sutvarkytus failus, kuriuose yra paslėpta garso komanda, tiesiai į asistentus, kad jie aiškiai girdėtų pranešimą. Tačiau mokslininkai įsitikinę, kad ataka gali būti įvykdyta kitomis priemonėmis. "Apskritai, bet kokiame garso faile galima paslėpti bet kokią transkripciją, kurios sėkmės rodiklis yra beveik 100 procentų", - padarė išvadą jie savo darbe.

Nėra daug būdų apsiginti nuo tokio išpuolio, kuris, aišku, pareikalautų nemažai pastangų, kad kas nors jį įvykdytų ir yra mažai tikėtinas, net jei įmanoma. Naudokite pasirinkto balso asistento saugos nustatymus, kad išvengtumėte prieigos prie neskelbtinos informacijos. Įjungta Alexa, pavyzdžiui, galite reikalauti PIN kodo turi būti pateikta prieš užbaigiant pirkimą.

Redaktorių rekomendacijos

  • Kas yra „Amazon Alexa“ ir ką ji gali padaryti?
  • Geriausi „Alexa“ įgūdžiai, kuriuos galite naudoti „Amazon Echo“ 2023 m
  • Kaip rasti vaiduoklius naudojant Alexa (ir kitus baisius įgūdžius)
  • Kaip parduoti savo tėvams išmanųjį asistentą
  • 5 unikalūs ir kūrybingi Alexa garso aptikimo funkcijos panaudojimo būdai

Atnaujinkite savo gyvenimo būdąSkaitmeninės tendencijos padeda skaitytojams stebėti sparčiai besivystantį technologijų pasaulį – pateikiamos visos naujausios naujienos, smagios produktų apžvalgos, įžvalgūs vedamieji leidiniai ir unikalūs žvilgsniai.