Ljudet av fågelkvitter kan hacka röstassistenter som Alexa

click fraud protection
BestAI Assistant/Flickr

Den där oskyldigt klingande fågeln som sjunger sin morgonsång kanske inte är så oskyldig trots allt. Enligt forskare vid Ruhr-Universitaet i Bochum, Tyskland, kan manipulerade ljudvågor från ljudet av fågelkvitter användas för att starta en attack mot röstassistenter.

Enligt forskarna är de manipulerade ljudfilerna en del av vad som kallas en "motståndsattack". som är utformad för att förvirra de djupa neurala nätverk som hjälper artificiell intelligens-drivna assistenter som Apples Siri, Googles Assistent, och Amazons Alexa fungera.

Rekommenderade videor

Med hjälp av ljudet av fågelkvitter – eller redigerade versioner av sånger eller mänskligt tal – manipuleras på ett sätt som endast mikrofonen på din smarta högtalare eller smartphone kan plocka upp, kringgår attacken upptäckt från mänskliga öron och börjar blanda sig i A.I. assistent. Det som låter som en fågelsång kan faktiskt vara en av dessa attacker med dolda kommandon som levereras till din röstassistent.

Relaterad

  • Chromes version av Nvidia DLSS är inställd på att lanseras, men du kan inte använda den ännu
  • 9 sätt Google Assistant kan hjälpa till med Thanksgiving
  • Experter varnar för att AI-assistenter skadar barns sociala utveckling

Forskarna föreslår att attackerna, som använder psykoakustisk gömma för att maskera sina verkliga avsikter, kan spelas upp via en app eller gömmas i en annan typ av sändning. Till exempel kan ljudet döljas i en reklam som spelas på TV eller radio för att träffa tusentals mål samtidigt.

"[I] ett värsta scenario kan en angripare kunna ta över hela det smarta hemsystemet, inklusive säkerhetskameror eller larmsystem", skrev forskarna, per Snabbt företag. De satte också ihop en demonstration för att visa hur en sådan attack kunde användas för att avaktivera en säkerhetskamera.

Det finns en hake med denna teoretiska attack: forskarna har inte lanserat den genom en sändning ännu. Istället har de matat in de manipulerade filerna som innehåller det dolda ljudkommandot direkt i assistenterna så att de hör budskapet tydligt. Men forskarna är övertygade om att attacken kan genomföras på annat sätt. "I allmänhet är det möjligt att dölja vilken transkription som helst i vilken ljudfil som helst med en framgångsfrekvens på nästan 100 procent", avslutade de i sin uppsats.

Det finns inte många sätt att försvara sig mot en sådan attack, vilket, för att vara tydlig, skulle kräva en hel del ansträngning för någon att utföra och är osannolikt, även om möjligt. Använd säkerhetsinställningarna på din röstassistent för att förhindra all åtkomst till känslig information. På Alexa, till exempel kan du kräver en PIN-kod ska tillhandahållas innan ett köp genomförs.

Redaktörens rekommendationer

  • Vad är Amazon Alexa, och vad kan det göra?
  • De bästa Alexa-färdigheterna att använda på ditt Amazon Echo 2023
  • Hur man hittar spöken med Alexa (och andra läskiga färdigheter)
  • Hur man säljer dina föräldrar på en smart assistent
  • 5 unika och kreativa användningsområden för Alexas ljuddetektionsfunktion

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.