Het geluid van fluitende vogels kan stemassistenten zoals Alexa hacken

BesteAI-assistent/Flickr

Die onschuldig klinkende vogel die zijn ochtendlied zingt, is misschien toch niet zo onschuldig. Volgens wetenschappers van de Ruhr-Universitaet in Bochum, Duitsland, zouden gemanipuleerde audiogolven van de geluiden van fluitende vogels kunnen worden gebruikt om een ​​aanval op stemassistenten uit te voeren.

Volgens de onderzoekers maken de gemanipuleerde audiobestanden deel uit van wat een ‘vijandige aanval’ wordt genoemd. die is ontworpen om de diepe neurale netwerken te verwarren die door kunstmatige intelligentie aangedreven assistenten helpen Appels Siri, Google's Assistenten die van Amazon Alexa functie.

Aanbevolen video's

Met behulp van het geluid van fluitende vogels – of bewerkte versies van liedjes of menselijke spraak – gemanipuleerd op een manier dat alleen de microfoon van uw slimme luidspreker of smartphone kan oppikken, omzeilt de aanval de detectie van menselijke oren en begint zich te bemoeien met de A.I. assistent. Wat klinkt als het gezang van een vogel, zou in werkelijkheid een van deze aanvallen kunnen zijn, waarbij verborgen opdrachten worden afgeleverd bij de stemassistent van uw keuze.

Verwant

  • Chrome's versie van Nvidia DLSS staat op het punt te worden gelanceerd, maar je kunt deze nog niet gebruiken
  • 9 manieren waarop de Google Assistent kan helpen met Thanksgiving
  • Experts waarschuwen dat AI-assistenten de sociale ontwikkeling van kinderen schaden

De onderzoekers suggereren dat de aanvallen, waarbij psychoakoestische verstoppingen worden gebruikt om hun ware bedoelingen te maskeren, via een app kunnen worden afgespeeld of verborgen kunnen worden in een ander type uitzending. Het geluid kan bijvoorbeeld worden verborgen in een reclamespot die op tv of radio wordt afgespeeld en duizenden doelen tegelijk bereikt.

“In het ergste geval kan een aanvaller mogelijk het hele slimme huissysteem overnemen, inclusief beveiligingscamera’s of alarmsystemen”, schreven de onderzoekers per Snel bedrijf. Ze organiseerden ook een demonstratie om te laten zien hoe een dergelijke aanval kon worden gebruikt om een ​​beveiligingscamera uit te schakelen.

Er zit een addertje onder het gras bij deze theoretische aanval: de onderzoekers hebben deze nog niet via een uitzending gelanceerd. In plaats daarvan hebben ze de vervalste bestanden die de verborgen audioopdracht bevatten, rechtstreeks aan de assistenten doorgegeven, zodat ze de boodschap duidelijk konden horen. De wetenschappers hebben er echter vertrouwen in dat de aanval op een andere manier kan worden uitgevoerd. “Over het algemeen is het mogelijk om elke transcriptie in elk audiobestand te verbergen met een succespercentage van bijna 100 procent”, concludeerden ze in hun artikel.

Er zijn niet veel manieren om je tegen een dergelijke aanval te verdedigen. Voor alle duidelijkheid: het zou behoorlijk wat inspanning vergen om iemand uit te voeren, en het is onwaarschijnlijk, zelfs als dat mogelijk zou zijn. Gebruik de beveiligingsinstellingen op uw stemassistent naar keuze om toegang tot gevoelige informatie te voorkomen. Op AlexaDat kan bijvoorbeeld een pincode nodig te verstrekken voordat u een aankoop voltooit.

Aanbevelingen van de redactie

  • Wat is Amazon Alexa en wat kan het doen?
  • De beste Alexa-vaardigheden die je in 2023 op je Amazon Echo kunt gebruiken
  • Hoe je geesten kunt vinden met Alexa (en andere enge vaardigheden)
  • Hoe je je ouders een slimme assistent kunt verkopen
  • 5 unieke en creatieve toepassingen voor Alexa's geluidsdetectiefunctie

Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.