Vor ein paar Wochen haben wir darüber berichtet, wie Security Research Labs (SRLabs), eine in Deutschland ansässige Hacking-Forschungsgruppe und Denkfabrik, das herausgefunden hat Alexa und Google Home entlarven Benutzer zu Phishing und Lauschangriffen aufgrund von Fähigkeiten und Apps Dritter. Jetzt wurde eine weitere neue Studie über die Schwachstellen intelligenter Lautsprecher wie Amazon Echo, Apple Home Pod und Google Home veröffentlicht. Forscher der University of Michigan und der japanischen University of Electro-Communications haben herausgefunden, dass man intelligente Lautsprecher mit vibrierendem Licht hacken kann.
Forscher könnten Hunderte Meter von einem intelligenten Lautsprecher entfernt stehen und die künstliche Intelligenz des Assistenten mithilfe eines speziellen Lasers manipulieren, auf dem Befehle gespeichert sind. Beispielsweise könnte ein Laser mit Informationen codiert werden, die den Assistenten anweisen, Ihre Haustür aufzuschließen oder etwas über Ihr Amazon-Konto zu bestellen. Durch die Kodierung vibriert der Laser auf eine Weise, die der Smart Speaker mit einer menschlichen Stimme verwechselt. Die Komponenten zum Bau dieser Art von Hackergerät sind für die Öffentlichkeit leicht erhältlich und der Zusammenbau des Ganzen kann weniger als 400 US-Dollar kosten. Dadurch ist der Hack für Kriminelle leicht zugänglich.
Empfohlene Videos
Obwohl es bei den meisten intelligenten Lautsprechern Funktionen gibt, die diese Art von Hackerangriffen verhindern, ist die Forscher konnten die meisten Sicherheitsfunktionen wie Spracherkennung, Weckwörter usw. umgehen Stifte.
Verwandt
- Das neue kabellose Power-Kit lädt Ihre Smart-Lautsprecher über Infrarotlicht auf
„…Wir haben herausgefunden, dass Befehle wie „Haustür aufschließen“ für August-Schlösser oder „Alarmanlage deaktivieren“ für Ring-Alarme eine PIN erfordern Für andere Befehle wie „Garagentor öffnen“ mit einem Garagentoröffner mit Assistenzfunktion ist eine Authentifizierung im Allgemeinen nicht erforderlich Authentifizierung. Selbst wenn ein Befehl nicht verfügbar ist, kann der Angreifer oft ein ähnliches Ziel erreichen, indem er andere Befehle verwendet“, so die Forscher in ihrer Arbeit mit dem Titel Lichtbefehle: Laserbasierte Audio-Injection-Angriffe auf sprachsteuerbare Systeme.
Die Forscher versuchten ihr Laser-Hacking an verschiedenen Geräten, darunter auch an intelligenten Lautsprechern in Autos. Sie fanden FacebookPortal Mini, Amazon Echo-Geräte, Google Home, Google Nest Cam IQ, das iPhone XR und das iPad der sechsten Generation gehören zu den gefährdeten Geräten.
Es gibt noch keine Berichte darüber, dass jemand dies zum Hacken nutzt, aber die Studie und andere zeigen gerne, wie anfällig unsere intelligente Technologie sein kann. Es ist zu hoffen, dass die Studien Druck auf die Hersteller ausüben werden, neue Wege zu finden, um Verbraucher vor Geräte-Hacking zu schützen.
Empfehlungen der Redaktion
- Schließlich können Sie einen intelligenten Lautsprecher oder ein Display von Google Nest verwenden, um ein iPhone zu finden
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.