Cercetătorii de la UC Berkeley și Universitatea Georgetown sunt foarte conștienți de acest lucru, motiv pentru care anul trecut au decis să investighează exact cât de vulnerabil software-ul de recunoaștere a vocii care alimentează atât de multe dintre dispozitivele noastre de calcul este într-adevăr. S-au concentrat asupra Asistent Google, care trăiește la nivelul întregului sistem Android și în cadrul aplicației Google de pe iOS și a dezvoltat o modalitate de a deforma comenzile vocale suficient pentru ca Asistentul Google să le poată înțelege, dar erau de neînțeles pentru majoritatea oamenilor.
Videoclipuri recomandate
Cercetătorii au testat recunoașterea mai multor comenzi ofucate, cum ar fi „OK Google” și au măsurat capacitatea software-ului de a descifra mesajul în comparație cu cea a oamenilor. Ceea ce au descoperit, în special în cazul „OK Google”, a fost că grupul de participanți a putut doar pentru a identifica expresia amestecată 22 la sută din timp, dar asistentul a înțeles-o în 95 la sută din timp. Mai mult decât atât, software-ul a fost mai bun la decodarea versiunii obfuscate decât pronunția normală a „OK Google”, care a dat o rată de recunoaștere de doar 90 la sută.
Legate de
- Experții avertizează că asistenții AI afectează dezvoltarea socială a copiilor
- Amazon Echo încă rege printre difuzoarele inteligente, în ciuda cotei de piață în scădere din SUA
- Difuzorul dvs. Alexa poate fi spart cu piste audio rău intenționate. Și lasere.
Demo VoiceHack
La prima vedere, multe dintre aceste comenzi distorsionate pot fi doar statice cu cadența vagă a vorbirii, doar accelerate. Ca oameni, când știm care este fraza înainte de a o auzi, devine infinit mai ușor de identificat. Dar fără aceste informații, în multe cazuri, rămânem nedumeriți.
Studiul notează că unele dintre comenzile amestecate sunt mai ușor de înțeles pentru noi decât altele. „Apelați la 911”, de exemplu, a dat o rată de recunoaștere umană de 94%, comparativ cu doar 40% de către Google. Asistent, probabil pentru că este o expresie la care marea majoritate a vorbitorilor de engleză americană au fost precondiționați auzi. Dar, combinația potrivită a unei comenzi de nișă a fost modificată suficient pentru ca asistenții noștri personali să fie receptivi la ea în timp ce suntem să ne zgâriem capul în stânga reprezintă un risc evident, având în vedere că comenzile vocale din majoritatea dispozitivelor de consum nu au nicio formă de autentificare.
Ce putem face pentru a ne proteja împotriva hackingului vocal?
Una dintre puținele măsuri preventive împotriva acestui tip de manipulare vocală este că multe comenzi determină asistenții să solicite confirmarea ulterior. Cu toate acestea, după cum subliniază The Atlantic în piesa lor despre studiu, acesta este doar un mic obstacol de eliminat cu un „da” distorsionat și, dacă totul se întâmplă prea repede pentru ca utilizatorul să-și dea seama ce se întâmplă, nu îl va putea opri la timp.
Unele dintre comenzile amestecate sunt mai ușor de înțeles pentru noi decât altele.
Echipa și-a urmărit descoperirea propunând modalități de servicii precum Google Assistant, Siri de la Apple și Amazon. Alexa ar putea împiedica aceste atacuri și se dovedește că există o varietate de metode pe care companiile ar putea fi înclinate să le implementeze. Unele apărări, cum ar fi un CAPTCHA audio, ar putea fi introduse ca o confirmare finală pentru a distinge utilizatorii umani de mașini - deși cercetătorii subliniază a constatat că algoritmii care alimentează CAPTCHA audio sunt relativ depășiți și nu au ținut pasul cu progresele realizate în tehnologia de recunoaștere a vorbirii. Ca să nu mai vorbim că CAPTCHA-urile sunt enervant de tratat.
O soluție mai complicată este adaptarea recunoașterii la vocea proprietarului, pe care multe servicii o folosesc deja într-o capacitate limitată. Cu toate acestea, raportul admite că propunerea necesită instruire din partea dispozitivului și reprezintă o problemă pentru gadgeturile destinate a fi utilizate de mai multe persoane, cum ar fi Amazon Echo. Echipa a stabilit că una dintre cele mai practice și eficiente apărări ar fi un filtru care degradează ușor sunetul. calitatea comenzilor, făcând cele mai obscure fraze de nerecunoscut pentru dispozitiv, permițând în același timp celor umane să treacă prin.
În timp ce rapoartele de atacuri vocale de acest tip sunt mai puțin frecvente, dacă nu chiar inexistente, este întotdeauna util pentru a fi conștienți de zonele în care se află vulnerabilități, astfel încât acestea să poată fi reduse înainte ca problemele să înceapă să apară cu adevărat sus. Datorită cercetărilor făcute aici, vom fi puțin mai pregătiți în cazul în care un val de șoapte cu sunet satanic începe să spună smartphone-urilor noastre ce să facă.
Recomandările editorilor
- Uitați de ChatGPT - Siri și Google Assistant fac aceste 4 lucruri mai bine
- Siri și Google Assistant spun că acum acceptă Black Lives Matter
- Alexa poate acum să arate mai multă emoție atunci când echipa ta sportivă pierde
- O nouă cercetare arată că difuzoarele inteligente pot fi compromise de lasere
- Noua actualizare de confidențialitate a Google vă permite să ștergeți istoricul comenzilor vocale a Asistentului
Îmbunătățește-ți stilul de viațăDigital Trends îi ajută pe cititori să țină cont de lumea rapidă a tehnologiei cu toate cele mai recente știri, recenzii distractive despre produse, editoriale perspicace și anticipări unice.