Dieser unschuldig klingende Vogel, der sein Morgenlied singt, ist vielleicht doch nicht so unschuldig. Laut Wissenschaftlern der Ruhr-Universität Bochum könnten manipulierte Audiowellen aus Vogelgezwitscher für einen Angriff auf Sprachassistenten genutzt werden.
Den Forschern zufolge handelt es sich bei den manipulierten Audiodateien um einen Teil eines sogenannten „gegnerischen Angriffs“. Dies soll die tiefen neuronalen Netze verwirren, die Assistenten mit künstlicher Intelligenz helfen Äpfel Siri, Googles Assistent, und Amazon Alexa Funktion.
Empfohlene Videos
Verwenden Sie den Klang zwitschernder Vögel – oder bearbeitete Versionen von Liedern oder menschlicher Sprache –, der so manipuliert wird, dass nur das Mikrofon Ihres intelligenten Lautsprechers oder Smartphone erkennen kann, umgeht der Angriff die Erkennung durch menschliche Ohren und beginnt, sich in die KI einzumischen. Assistent. Was wie ein Vogelgesang klingt, könnte tatsächlich einer dieser Angriffe sein, bei denen versteckte Befehle an den Sprachassistenten Ihrer Wahl übermittelt werden.
Verwandt
- Chromes Version von Nvidia DLSS steht kurz vor der Veröffentlichung, Sie können sie jedoch noch nicht verwenden
- 9 Möglichkeiten, wie Google Assistant bei Thanksgiving helfen kann
- Experten warnen, dass KI-Assistenten die soziale Entwicklung von Kindern beeinträchtigen
Die Forscher schlagen vor, dass die Angriffe, bei denen psychoakustisches Verstecken genutzt wird, um ihre wahren Absichten zu verschleiern, über eine App abgespielt oder in einer anderen Art von Übertragung versteckt werden könnten. Der Ton könnte beispielsweise in einem Werbespot versteckt werden, der im Fernsehen oder im Radio läuft und Tausende von Zielen gleichzeitig trifft.
„[In] einem Worst-Case-Szenario könnte ein Angreifer in der Lage sein, das gesamte Smart-Home-System, einschließlich Überwachungskameras oder Alarmanlagen, zu übernehmen“, schrieben die Forscher Schnelles Unternehmen. Außerdem stellten sie eine Demonstration zusammen, um zu zeigen, wie ein solcher Angriff zur Deaktivierung einer Überwachungskamera genutzt werden könnte.
Dieser theoretische Angriff hat einen Haken: Die Forscher haben ihn noch nicht über eine Übertragung gestartet. Stattdessen haben sie die manipulierten Dateien, die den versteckten Audiobefehl enthalten, direkt in die Assistenten eingespeist, damit diese die Nachricht deutlich hören. Allerdings sind die Wissenschaftler zuversichtlich, dass der Angriff auch auf andere Weise erfolgen könnte. „Im Allgemeinen ist es möglich, jede Transkription in jeder Audiodatei mit einer Erfolgsquote von nahezu 100 Prozent auszublenden“, schlussfolgern sie in ihrer Arbeit.
Es gibt nicht viele Möglichkeiten, sich gegen einen solchen Angriff zu verteidigen, dessen Ausführung, um es klarzustellen, für jemanden einen erheblichen Aufwand erfordern würde und unwahrscheinlich ist, selbst wenn er möglich wäre. Verwenden Sie die Sicherheitseinstellungen Ihres Sprachassistenten Ihrer Wahl, um den Zugriff auf vertrauliche Informationen zu verhindern. An Alexa, zum Beispiel können Sie erfordern eine PIN vor Abschluss eines Kaufs bereitzustellen.
Empfehlungen der Redaktion
- Was ist Amazon Alexa und was kann es?
- Die besten Alexa-Fähigkeiten für Ihren Amazon Echo im Jahr 2023
- So finden Sie Geister mit Alexa (und anderen gruseligen Fähigkeiten)
- So verkaufen Sie Ihren Eltern einen intelligenten Assistenten
- 5 einzigartige und kreative Einsatzmöglichkeiten für die Geräuscherkennungsfunktion von Alexa
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.