Тази невинно звучаща птица, която пее утринната си песен, може да не е толкова невинна в крайна сметка. Според учени от Ruhr-Universitaet в Бохум, Германия, манипулираните аудио вълни от звуците на чуруликане на птици могат да бъдат използвани за стартиране на атака срещу гласови асистенти.
Според изследователите, манипулираните аудио файлове са част от това, което се нарича „съперническа атака“, който е предназначен да обърква дълбоките невронни мрежи, които помагат на захранвани с изкуствен интелект асистенти като на Apple Siri, на Google Помощник, и на Amazon Алекса функция.
Препоръчани видеоклипове
Използване на звук от чуруликане на птици — или редактирани версии на песни или човешка реч — манипулирани по начин, по който само микрофонът на вашия интелигентен високоговорител или смартфон може да се вдигне, атаката заобикаля откриването от човешките уши и започва да се намесва в A.I. асистент. Това, което звучи като птича песен, всъщност може да е една от тези атаки със скрити команди, които се доставят на избрания от вас гласов асистент.
Свързани
- Възприемането на Chrome за Nvidia DLSS е настроено да стартира, но все още не можете да го използвате
- 9 начина, по които Google Assistant може да помогне за Деня на благодарността
- Експертите предупреждават, че асистентите с изкуствен интелект вредят на социалното развитие на децата
Изследователите предполагат, че атаките, които използват психоакустично скриване, за да прикрият истинските си намерения, могат да бъдат пуснати чрез приложение или скрити в друг тип излъчване. Например, звукът може да бъде скрит в реклама, която се пуска по телевизията или радиото, за да удари хиляди цели наведнъж.
„[В] най-лошия сценарий, нападателят може да успее да превземе цялата интелигентна домашна система, включително охранителни камери или алармени системи“, пишат изследователите по Бърза компания. Те също така направиха демонстрация, за да покажат как подобна атака може да се използва за деактивиране на охранителна камера.
Има уловка в тази теоретична атака: изследователите все още не са я стартирали чрез излъчване. Вместо това те подадоха фалшивите файлове, които съдържат скритата аудио команда директно в асистентите, така че те да чуят съобщението ясно. Учените обаче са уверени, че атаката може да бъде извършена по друг начин. „Като цяло е възможно да се скрие всяка транскрипция във всеки аудио файл с успеваемост от почти 100 процента“, заключиха те в своя документ.
Няма много начини за защита срещу подобна атака, която, за да бъде ясно, ще изисква доста усилия за изпълнението на някой и е малко вероятно, дори и да е възможно. Използвайте настройките за сигурност на избрания от вас гласов асистент, за да предотвратите всякакъв достъп до чувствителна информация. На Алекса, например, можете изисква ПИН да бъдат предоставени преди извършване на покупка.
Препоръки на редакторите
- Какво е Amazon Alexa и какво може да прави?
- Най-добрите Alexa умения за използване на вашия Amazon Echo през 2023 г
- Как да намерите призраци с Alexa (и други страшни умения)
- Как да продадете на родителите си интелигентен асистент
- 5 уникални и креативни приложения за функцията за откриване на звук на Alexa
Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.