Naukowcy odkryli, że lasery mogą uszkodzić inteligentne głośniki

click fraud protection

Kilka tygodni temu informowaliśmy o tym, jak Security Research Labs (SRLabs), grupa badawcza i zespół doradców zajmujących się hakerstwem z siedzibą w Niemczech, odkryło, że Alexa i Google Home narażają użytkowników na phishing i podsłuchiwanie dzięki umiejętnościom i aplikacjom stron trzecich. Teraz opublikowano kolejne nowe badanie dotyczące luk w zabezpieczeniach inteligentnych głośników, takich jak Amazon Echo, Apple Home Pod i Google Home. Naukowcy z Uniwersytetu Michigan i Japońskiego Uniwersytetu Elektrokomunikacji odkryli, że można zhakować inteligentne głośniki za pomocą wibrującego światła.

Naukowcy mogli stać setki metrów od inteligentnego głośnika i manipulować sztuczną inteligencją asystenta za pomocą specjalnego lasera kodowanego poleceniami. Na przykład laser może zostać zakodowany za pomocą informacji, które nakażą asystentowi odblokowanie drzwi wejściowych lub zamówienie czegoś za pośrednictwem konta Amazon. Kodowanie powoduje, że laser wibruje w sposób, który inteligentny głośnik myli z ludzkim głosem. Komponenty do budowy tego typu urządzenia hakerskiego są łatwo dostępne publicznie, a złożenie całości może kosztować mniej niż 400 dolarów. Dzięki temu hack jest łatwo dostępny dla przestępców.

Polecane filmy

Mimo że w większości inteligentnych głośników dostępne są funkcje powstrzymujące tego rodzaju ataki hakerskie, plik badaczom udało się ominąć większość funkcji bezpieczeństwa, takich jak rozpoznawanie głosu, słowa budzenia i szpilki.

Powiązany

  • Nowy bezprzewodowy zestaw zasilający ładuje inteligentne głośniki za pomocą światła podczerwonego

„…Odkryliśmy, że podczas gdy polecenia takie jak „odblokuj drzwi wejściowe” w przypadku sierpniowych zamków lub „wyłącz system alarmowy” w przypadku alarmów pierścieniowych wymagają kodu PIN uwierzytelniania, inne polecenia, takie jak „otwórz bramę garażową” za pomocą pilota do bramy garażowej z funkcją asystenta, z reguły nie wymagają żadnego uwierzytelnianie. Zatem nawet jeśli jedno polecenie jest niedostępne, atakujący często może osiągnąć podobny cel, korzystając z innych poleceń” – zauważają badacze w swoim artykule pt. Polecenia świetlne: ataki laserowego wstrzykiwania dźwięku na systemy sterowane głosem.

Badacze próbowali hakowania laserowego na różnych urządzeniach, w tym na inteligentnych głośnikach w samochodach. Znaleźli FacebookPortal Mini, Amazon Urządzenia Echo, Google Home, Kamera Google Nest IQwśród wrażliwych urządzeń jest iPhone XR i iPad szóstej generacji.

Nie ma jeszcze doniesień o tym, aby ktokolwiek używał tego do hakowania, ale badanie i inne badania chcą pokazać, jak bezbronna może być nasza inteligentna technologia. Mamy nadzieję, że badania wywrą presję na producentów, aby znaleźli nowe sposoby ochrony konsumentów przed włamaniami do urządzeń.

Zalecenia redaktorów

  • Wreszcie możesz użyć inteligentnego głośnika lub wyświetlacza Google Nest, aby znaleźć iPhone'a

Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.