Den uskyldigt klingende fugl, der synger sin morgensang, er måske alligevel ikke så uskyldig. Ifølge videnskabsmænd ved Ruhr-Universitaet i Bochum, Tyskland, kunne manipulerede lydbølger fra lyde af fuglekvidder bruges til at iværksætte et angreb mod stemmeassistenter.
Ifølge forskerne er de manipulerede lydfiler en del af det, der kaldes et "modstridende angreb". som er designet til at forvirre de dybe neurale netværk, der hjælper kunstig intelligens-drevne assistenter som f.eks. Apples Siri, Googles Assistent, og Amazons Alexa fungere.
Anbefalede videoer
Brug af lyden af fuglekvidder - eller redigerede versioner af sange eller menneskelig tale - manipuleret på en måde, som kun mikrofonen på din smarthøjttaler eller smartphone kan samle op, omgår angrebet detektion fra menneskelige ører og begynder at blande sig med A.I. assistent. Det, der lyder som en fuglesang, kunne faktisk være et af disse angreb med skjulte kommandoer, der leveres til din valgte stemmeassistent.
Relaterede
- Chromes version af Nvidia DLSS er indstillet til at lancere, men du kan ikke bruge det endnu
- 9 måder, hvorpå Google Assistant kan hjælpe med Thanksgiving
- Eksperter advarer om, at AI-assistenter skader børns sociale udvikling
Forskerne foreslår, at angrebene, som bruger psykoakustisk skjul til at maskere deres sande hensigter, kan afspilles via en app eller skjules i en anden type udsendelse. For eksempel kan lyden være skjult i en reklamefilm, der afspilles på tv eller radio for at ramme tusindvis af mål på én gang.
"[I] et worst-case scenarie kan en angriber muligvis overtage hele smart home-systemet, inklusive sikkerhedskameraer eller alarmsystemer," skrev forskerne, pr. Hurtigt selskab. De sammensatte også en demonstration for at vise, hvordan et sådant angreb kunne bruges til at deaktivere et sikkerhedskamera.
Der er en hake ved dette teoretiske angreb: forskerne har ikke lanceret det gennem en udsendelse endnu. I stedet har de ført de behandlede filer, der indeholder den skjulte lydkommando, direkte ind i assistenterne, så de hører beskeden tydeligt. Forskerne er dog sikre på, at angrebet kan udføres på anden vis. "Generelt er det muligt at skjule enhver transskription i enhver lydfil med en succesrate på næsten 100 procent," konkluderede de i deres papir.
Der er ikke mange måder at forsvare sig mod et sådant angreb, hvilket for at være klart ville kræve en rimelig indsats for nogen at udføre og er usandsynligt, selvom det er muligt. Brug sikkerhedsindstillingerne på din valgte stemmeassistent for at forhindre enhver adgang til følsomme oplysninger. På Alexakan du for eksempel kræver en PIN-kode skal leveres inden et køb gennemføres.
Redaktørens anbefalinger
- Hvad er Amazon Alexa, og hvad kan det gøre?
- De bedste Alexa-færdigheder at bruge på din Amazon Echo i 2023
- Sådan finder du spøgelser med Alexa (og andre skræmmende færdigheder)
- Sådan sælger du dine forældre på en smart assistent
- 5 unikke og kreative anvendelser af Alexas lyddetektionsfunktion
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.