Acea pasăre care sună nevinovat care își cântă dimineața poate să nu fie atât de inocentă până la urmă. Potrivit oamenilor de știință de la Ruhr-Universitaet din Bochum, Germania, undele audio manipulate de la sunetele ciripitului păsărilor ar putea fi folosite pentru a lansa un atac împotriva asistenților vocali.
Potrivit cercetătorilor, fișierele audio manipulate fac parte din ceea ce se numește „atac adversar”. care este conceput pentru a deruta rețelele neuronale profunde care ajută asistenții cu inteligență artificială cum ar fi ale Apple Siri, Google Asistent, și Amazon Alexa funcţie.
Videoclipuri recomandate
Folosind sunetul ciripitului păsărilor – sau versiuni editate de cântece sau vorbire umană – manipulate astfel încât doar microfonul de pe difuzorul inteligent sau smartphone poate prelua, atacul ocolește detectarea din urechile umane și începe să se amestece cu I.A. asistent. Ceea ce sună ca cântecul unei păsări ar putea fi de fapt unul dintre aceste atacuri, cu comenzi ascunse livrate asistentului vocal ales.
Legate de
- Imaginea de către Chrome a Nvidia DLSS este setată să se lanseze, dar nu o puteți utiliza încă
- 9 moduri în care Asistentul Google poate ajuta cu Ziua Recunoștinței
- Experții avertizează că asistenții AI afectează dezvoltarea socială a copiilor
Cercetătorii sugerează că atacurile, care folosesc ascunderea psihoacustică pentru a-și masca adevăratele intenții, ar putea fi redate prin intermediul unei aplicații sau ascunse într-un alt tip de transmisie. De exemplu, sunetul ar putea fi ascuns într-o reclamă care rulează la televizor sau la radio pentru a atinge mii de ținte simultan.
„În cel mai rău caz, un atacator ar putea fi capabil să preia întregul sistem de casă inteligentă, inclusiv camerele de securitate sau sistemele de alarmă”, au scris cercetătorii. Companie rapidă. De asemenea, au realizat o demonstrație pentru a arăta cum un astfel de atac ar putea fi folosit pentru a dezactiva o cameră de securitate.
Există o captură în acest atac teoretic: cercetătorii nu l-au lansat încă printr-o emisiune. În schimb, au introdus fișierele manipulate care conțin comanda audio ascunsă direct în asistenți, astfel încât să audă mesajul clar. Cu toate acestea, oamenii de știință sunt încrezători că atacul ar putea fi efectuat prin alte mijloace. „În general, este posibil să ascundeți orice transcriere în orice fișier audio cu o rată de succes de aproape 100%”, au concluzionat ei în lucrarea lor.
Nu există multe modalități de a te apăra împotriva unui astfel de atac, care, pentru a fi clar, ar necesita un efort suficient pentru ca cineva să-l execute și este puțin probabil, chiar dacă este posibil. Utilizați setările de securitate ale asistentului vocal ales pentru a preveni orice acces la informații sensibile. Pe Alexa, de exemplu, poți necesită un PIN care urmează să fie furnizate înainte de finalizarea unei achiziții.
Recomandările editorilor
- Ce este Amazon Alexa și ce poate face?
- Cele mai bune abilități Alexa de utilizat pe Amazon Echo în 2023
- Cum să găsești fantome cu Alexa (și alte abilități înfricoșătoare)
- Cum să-ți vinzi părinții cu un asistent inteligent
- 5 utilizări unice și creative pentru funcția de detectare a sunetului Alexa
Îmbunătățește-ți stilul de viațăDigital Trends îi ajută pe cititori să țină cont de lumea rapidă a tehnologiei cu toate cele mai recente știri, recenzii distractive despre produse, editoriale perspicace și anticipări unice.