Seria badań udowodniła, że możliwe jest potajemne wydawanie cichych poleceń np. asystentom głosowym Amazonka Alexa I Asystent Google bez wiedzy ich właścicieli.
Według New York Timesbadacze z Chin i USA przeprowadzili serię eksperymentów, które ostatecznie to potwierdziły możliwe jest przekazywanie cichych poleceń, niewykrywalnych dla ludzkiego ucha, np. asystentom głosowym Siri, Aleksa I Asystent Google.
Polecane filmy
Odkrycia rzucają światło na szereg problemów związanych z bezpieczeństwem, ponieważ pokazują, jak wrażliwe mogą być dane asystenta głosowego.
Powiązany
- 8 ustawień Asystenta Google, które powinieneś wyłączyć lub dostosować
- Zestawienie zwierząt bawiących się z Google i Alexą
- Czy Twój inteligentny dom może zaoszczędzić pieniądze na ubezpieczeniu właścicieli domów?
W jednym badaniu przeprowadzonym przez Uniwersytet Georgetown i Uniwersytet Kalifornijski w Berkeley w 2016 r. studentom-badaczom udało się ukryć tajne polecenia głosowe za pomocą białego szumu. Uczniom udało się przełączyć urządzenia inteligentne w tryb samolotowy i nawigować po stronach internetowych, ukrywając polecenia w białym szumie odtwarzanym w filmach na YouTube i przez głośniki.
Biały szum zasadniczo zastępuje wszelkie inne dźwięki wokół niego, ponieważ jest to biały szum jest mieszaniną wszystkich częstotliwości dźwięku ludzkie ucho jest w stanie wykryć. Wstawiając polecenie inteligentnego głośnika do białego szumu, badacze zasadniczo zakamuflowali polecenia przed ludzkimi słuchaczami.
Niektórzy z tych samych badaczy z Berkeley przenoszą badania na wyższy poziom opublikował w tym miesiącu artykuł, w którym wykazali, że potrafią wstawiać ciche polecenia do mówionego tekstu i plików muzycznych. Choć możesz myśleć, że słuchasz audiobooka lub utworu muzyki klasycznej, Twój inteligentny głośnik może to zrobić otrzymywać litanię poleceń nakazujących zmianę ustawień lub zakup przedmiotów z konta Amazon.
Jak dotąd nic nie wskazuje na to, że takie przekazy podprogowe odniosły sukces poza środowiskiem badawczym studentów, ale jeden z autorów artykułu z Berkeley twierdzi, że wierzy, że to tylko kwestia czasu: „Zakładam, że złośliwi ludzie już zatrudniają ludzi do robienia tego samego, co ja” – powiedział New York Times.
jako Czasy Jak podkreśla, systemy rozpoznawania głosu są skonfigurowane tak, aby rozpoznawać każdy dźwięk, który wypowiadasz, jako literę, którą następnie system zbiera w kompletne słowa i frazy.
Badania te dowodzą, że możliwe jest manipulowanie gadżetami rozpoznawającymi mowę poprzez wprowadzanie drobnych zmian w mowie lub innych plikach audio. Robiąc to, możesz zasadniczo zastąpić wiadomość, którą asystent głosowy powinien otrzymać, i zastąpić ją dźwiękami będą różnie interpretowane, dając asystentowi głosowemu inne polecenie, które dla człowieka byłoby praktycznie nierozpoznawalne ucho.
Jak wynika z relacji zawartej w Czasy, zarówno Amazon, jak i Google podjęły działania, aby chronić swoje inteligentne głośniki i asystentów głosowych przed takimi manipulacjami. Rozpoznawanie głosu indywidualnego użytkownika to jeden z takich protokołów, który może uniemożliwić pomyślne wykonanie takich cichych poleceń: if Twój inteligentny głośnik jest skalibrowany tak, aby reagował tylko na Twój głos, więc ciche polecenie teoretycznie nie powinno mieć wpływu To.
Zalecenia redaktorów
- Wersja przeglądarki Chrome na Nvidia DLSS ma zostać uruchomiona, ale nie można jeszcze z niej korzystać
- 9 sposobów, w jakie Asystent Google może pomóc w Święcie Dziękczynienia
- Dlaczego Alexa nie może połączyć się z Amazon Music?
- Funkcja „Patrz i rozmawiaj” oznacza, że nie musisz mówić „Hej, Google”
- Alexa może teraz poinformować Cię, kiedy paczka zostanie dostarczona
Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.