Dźwięk ćwierkających ptaków może zhakować asystentów głosowych takich jak Alexa

Asystent BestAI/Flickr

Ten niewinnie brzmiący ptak śpiewający poranną piosenkę może wcale nie być taki niewinny. Według naukowców z Ruhr-Universitaet w Bochum w Niemczech zmanipulowane fale dźwiękowe pochodzące ze śpiewu ptaków można wykorzystać do przeprowadzenia ataku na asystentów głosowych.

Według badaczy zmanipulowane pliki audio stanowią część tak zwanego „ataku kontradyktoryjnego” który ma na celu zmylenie głębokich sieci neuronowych, które pomagają asystentom opartym na sztucznej inteligencji Jabłka Siri, Google Asystenti Amazon Aleksa funkcjonować.

Polecane filmy

Korzystanie z odgłosów śpiewu ptaków — lub zredagowanych wersji piosenek lub ludzkiej mowy — zmanipulowanych w taki sposób, że tylko mikrofon inteligentnego głośnika lub smartfon może zostać wykryty, atak omija wykrycie przez ludzkie uszy i zaczyna ingerować w sztuczną inteligencję. asystent. To, co brzmi jak śpiew ptaka, może w rzeczywistości być jednym z tych ataków, podczas których ukryte polecenia są dostarczane wybranemu asystentowi głosowemu.

Powiązany

  • Wersja przeglądarki Chrome na Nvidia DLSS ma zostać uruchomiona, ale nie można jeszcze z niej korzystać
  • 9 sposobów, w jakie Asystent Google może pomóc w Święcie Dziękczynienia
  • Eksperci ostrzegają, że asystenci AI szkodzą rozwojowi społecznemu dzieci

Badacze sugerują, że ataki wykorzystujące ukrywanie psychoakustyczne w celu zamaskowania swoich prawdziwych intencji mogą być przeprowadzane za pośrednictwem aplikacji lub ukryte w innym typie transmisji. Na przykład dźwięk można ukryć w reklamie odtwarzanej w telewizji lub radiu, aby trafić w tysiące celów jednocześnie.

„W najgorszym przypadku atakujący może przejąć cały system inteligentnego domu, w tym kamery bezpieczeństwa i systemy alarmowe” – napisali badacze, według Szybka Firma. Przygotowali także demonstrację mającą na celu pokazanie, w jaki sposób można wykorzystać taki atak do dezaktywacji kamery bezpieczeństwa.

W tym teoretycznym ataku jest pewien haczyk: badacze nie przeprowadzili go jeszcze za pośrednictwem transmisji. Zamiast tego przekazali sfałszowane pliki zawierające ukryte polecenie audio bezpośrednio asystentom, aby wyraźnie usłyszeli wiadomość. Naukowcy są jednak przekonani, że atak można przeprowadzić w inny sposób. „Ogólnie rzecz biorąc, możliwe jest ukrycie dowolnej transkrypcji w dowolnym pliku audio ze skutecznością prawie 100 procent” – podsumowali w swoim artykule.

Nie ma zbyt wielu sposobów obrony przed takim atakiem, który, rzecz jasna, wymagałby od kogoś sporo wysiłku i jest mało prawdopodobny, nawet jeśli jest to możliwe. Użyj ustawień zabezpieczeń wybranego asystenta głosowego, aby uniemożliwić dostęp do poufnych informacji. NA Aleksana przykład możesz wymagają kodu PIN należy podać przed dokonaniem zakupu.

Zalecenia redaktorów

  • Co to jest Amazon Alexa i co potrafi?
  • Najlepsze umiejętności Alexy do wykorzystania na Amazon Echo w 2023 r
  • Jak znaleźć duchy za pomocą Alexy (i innych przerażających umiejętności)
  • Jak sprzedać rodzicom inteligentnego asystenta
  • 5 unikalnych i kreatywnych zastosowań funkcji wykrywania dźwięku Alexy

Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.