Naukowcy znaleźli sposób na zhakowanie telefonu za pomocą poleceń głosowych

polecenie głosowe zhakuj Google Now Nexus 6
Pomiędzy złośliwym oprogramowaniem ukrywającym się w pozornie niewinnych aplikacjach a śmiercionośne ciągi emoji, walka o bezpieczeństwo naszych inteligentnych urządzeń nie ma końca. Każdy nowy sposób interakcji, czy to sterowanie głosowe, czy unikalny identyfikator, taki jak odcisk palca lub twarz uznanie, stanowi kolejne miejsce, za pomocą którego hakerzy mogą uzyskać dostęp do otaczającej technologii i manipulować nią nas.

Naukowcy z Uniwersytetu Kalifornijskiego w Berkeley i Uniwersytetu Georgetown są tego doskonale świadomi i dlatego w zeszłym roku postanowili to zrobić dokładnie zbadać, jak bardzo jest podatny na ataki oprogramowanie do rozpoznawania głosu, które obsługuje tak wiele naszych urządzeń komputerowych, naprawdę nim jest. Skupili się na Asystent Google, który żyje w całym systemie Android oraz w aplikacji Google na iOS i opracował sposób zniekształcania poleceń głosowych na tyle, aby Asystent Google mógł je zrozumieć, ale były one niezrozumiałe dla większości ludzi.

Polecane filmy

Naukowcy przetestowali rozpoznawanie kilku zaciemnionych poleceń, takich jak „OK Google”, i zmierzyli zdolność oprogramowania do odszyfrowania wiadomości w porównaniu z umiejętnością człowieka. Ustalili, szczególnie w przypadku „OK Google”, że panel uczestników tylko mógł zidentyfikować zaszyfrowane zdanie w 22 procentach przypadków, ale Asystent rozumiał je w 95 procentach czas. Co więcej, oprogramowanie lepiej radziło sobie z dekodowaniem zaciemnionej wersji niż zwykła wymowa „OK Google”, co dało współczynnik rozpoznawalności na poziomie zaledwie 90%.

Powiązany

  • Eksperci ostrzegają, że asystenci AI szkodzą rozwojowi społecznemu dzieci
  • Amazon Echo nadal króluje wśród inteligentnych głośników pomimo spadającego udziału w rynku amerykańskim
  • Twój głośnik Alexa może zostać zhakowany przy użyciu złośliwych ścieżek audio. I lasery.

Demo VoiceHack'a

Na pierwszy rzut oka wiele z tych zniekształconych poleceń może wydawać się statycznych, z niejasnym rytmem mowy, jedynie przyspieszonym. Jako ludzie wiemy, co to za wyrażenie, zanim je usłyszymy, a jego identyfikacja staje się nieskończenie łatwiejsza. Jednak bez tych informacji w wielu przypadkach jesteśmy zakłopotani.

W badaniu zauważono, że niektóre pomieszane polecenia są dla nas łatwiejsze do zrozumienia niż inne. Na przykład „zadzwoń pod numer 911” wskaźnik rozpoznawania ludzi wyniósł 94% w porównaniu do zaledwie 40% według Google Asystent, prawdopodobnie dlatego, że jest to wyrażenie, do którego przyzwyczaiła się większość osób mówiących po angielsku w Ameryce słyszeć. Jednak właściwa kombinacja niszowego polecenia została zmieniona na tyle, aby nasi osobiści asystenci byli na nią otwarci, gdy my drapanie się po głowie stwarza oczywiste ryzyko, biorąc pod uwagę, że w większości urządzeń konsumenckich nie ma żadnej formy sterowania głosowego uwierzytelnianie.

Co możemy zrobić, aby chronić się przed hakowaniem głosu?

Jednym z niewielu środków zapobiegawczych przeciwko tego rodzaju manipulacji głosowej jest to, że wiele poleceń powoduje, że asystenci proszą później o potwierdzenie. Jednakże, jak wskazuje The Atlantic w ich artykuł na temat badania, to tylko niewielka przeszkoda, którą należy usunąć zniekształconym „tak”, a jeśli wszystko dzieje się zbyt szybko, aby użytkownik mógł zorientować się, co się dzieje, nie będzie w stanie tego zatrzymać na czas.

Niektóre z pomieszanych poleceń są dla nas łatwiejsze do zrozumienia niż inne.

Zespół kontynuował swoje odkrycie, proponując rozwiązania takie jak Asystent Google, Siri firmy Apple i Amazon Aleksa mogłoby odeprzeć te ataki i okazuje się, że istnieje wiele metod, które firmy mogą być skłonne wdrożyć. Niektóre zabezpieczenia, takie jak audio CAPTCHA, można zastosować jako ostateczne potwierdzenie odróżniające użytkowników od maszyn – chociaż badacze wskazują Należy zauważyć, że algorytmy obsługujące audio CAPTCHA są stosunkowo przestarzałe i nie nadążają za postępem w technologii rozpoznawania mowy. Nie wspominając o tym, że CAPTCHA są irytujące.

Bardziej skomplikowanym rozwiązaniem jest dostosowanie rozpoznawania do głosu właściciela, z czego wiele serwisów korzysta już w ograniczonym zakresie. Jednak w raporcie przyznano, że propozycja wymaga przeszkolenia ze strony urządzenia i stwarza problem w przypadku gadżetów przeznaczonych do użytku przez wiele osób, takich jak Amazon Echo. Zespół ustalił, że jednym z najbardziej praktycznych i skutecznych zabezpieczeń będzie filtr, który nieznacznie pogarsza dźwięk jakość poleceń, sprawiając, że większość zaciemnionych zwrotów jest nierozpoznawalna dla urządzenia, jednocześnie pozwalając ludziom przejść Poprzez.

Chociaż raporty o tego rodzaju atakach głosowych są rzadkie, jeśli w ogóle nie istnieją, zawsze są pomocne mieć świadomość obszarów, w których występują luki, aby można je było ograniczyć, zanim problemy naprawdę zaczną się pojawiać w górę. Dzięki przeprowadzonym tutaj badaniom będziemy nieco lepiej przygotowani na wypadek, gdyby fala szatańsko brzmiących szeptów zaczęła mówić naszym smartfonom, co mają robić.

Zalecenia redaktorów

  • Zapomnij o ChatGPT — Siri i Asystent Google robią te 4 rzeczy lepiej
  • Siri i Asystent Google twierdzą, że teraz obsługują Black Lives Matter
  • Alexa może teraz okazywać więcej emocji, gdy Twoja drużyna sportowa przegrywa
  • Nowe badania wykazały, że lasery mogą uszkodzić inteligentne głośniki
  • Nowa aktualizacja prywatności Google umożliwia usunięcie historii poleceń głosowych Asystenta

Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.