Den uskyldig-klingende fuglen som synger morgensangen sin er kanskje ikke så uskyldig likevel. Ifølge forskere ved Ruhr-Universitaet i Bochum, Tyskland, kan manipulerte lydbølger fra lyden av fuglekvitter brukes til å sette i gang et angrep mot stemmeassistenter.
Ifølge forskerne er de manipulerte lydfilene en del av det som kalles et "motstridende angrep". som er designet for å forvirre de dype nevrale nettverkene som hjelper kunstig intelligens-drevne assistenter som Apples Siri, Googles Assistent, og Amazons Alexa funksjon.
Anbefalte videoer
Ved å bruke lyden av fuglekvitter – eller redigerte versjoner av sanger eller menneskelig tale – manipulert på en måte som bare mikrofonen på smarthøyttaleren eller smarttelefon kan ta opp, omgår angrepet deteksjon fra menneskelige ører og begynner å blande seg inn i A.I. assistent. Det som høres ut som en fuglesang kan faktisk være et av disse angrepene med skjulte kommandoer som leveres til stemmeassistenten du velger.
I slekt
- Chromes versjon av Nvidia DLSS er satt til å starte, men du kan ikke bruke den ennå
- 9 måter Google Assistant kan hjelpe med Thanksgiving på
- Eksperter advarer om at AI-assistenter skader barns sosiale utvikling
Forskerne foreslår at angrepene, som bruker psykoakustisk skjul for å maskere deres sanne intensjoner, kan spilles av via en app eller skjules i en annen type sending. For eksempel kan lyden skjules i en reklamefilm som spilles på TV eller radio for å treffe tusenvis av mål samtidig.
"[I] verste fall kan en angriper være i stand til å ta over hele smarthussystemet, inkludert sikkerhetskameraer eller alarmsystemer," skrev forskerne, pr. Rask selskap. De har også satt sammen en demonstrasjon for å vise hvordan et slikt angrep kan brukes til å deaktivere et sikkerhetskamera.
Det er en hake ved dette teoretiske angrepet: forskerne har ikke lansert det gjennom en sending ennå. I stedet har de matet de behandlede filene som inneholder den skjulte lydkommandoen direkte inn i assistentene slik at de hører meldingen tydelig. Forskerne er imidlertid sikre på at angrepet kan bli utført på andre måter. "Generelt er det mulig å skjule enhver transkripsjon i hvilken som helst lydfil med en suksessrate på nesten 100 prosent," konkluderte de i papiret.
Det er ikke mange måter å forsvare seg mot et slikt angrep på, som for å være klar vil kreve en god del innsats for noen å utføre og er usannsynlig, selv om det er mulig. Bruk sikkerhetsinnstillingene på stemmeassistenten du velger for å forhindre tilgang til sensitiv informasjon. På Alexa, for eksempel kan du krever en PIN-kode skal leveres før du fullfører et kjøp.
Redaktørenes anbefalinger
- Hva er Amazon Alexa, og hva kan det gjøre?
- De beste Alexa-ferdighetene du kan bruke på Amazon Echo i 2023
- Hvordan finne spøkelser med Alexa (og andre skumle ferdigheter)
- Hvordan selge foreldrene dine på en smart assistent
- 5 unike og kreative bruksområder for Alexas lyddeteksjonsfunksjon
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.