Звук щебетания птиц может взломать голосовых помощников, таких как Alexa

click fraud protection
Лучший AI-помощник/Flickr

Эта невинно звучащая птица, поющая свою утреннюю песню, в конце концов, возможно, не такая уж и невинная. По мнению ученых из Рурского университета в Бохуме, Германия, манипулируемые звуковые волны из звуков щебетания птиц могут быть использованы для атаки на голосовых помощников.

По мнению исследователей, манипулируемые аудиофайлы являются частью так называемой «состязательной атаки». который предназначен для того, чтобы сбить с толку глубокие нейронные сети, которые помогают помощникам с искусственным интеллектом, таким как Apple Сири, Google Ассистенти Amazon Алекса функция.

Рекомендуемые видео

Используя звуки щебетания птиц или отредактированные версии песен или человеческую речь, манипулируйте таким образом, что только микрофон на вашем умном динамике или смартфон может быть обнаружен, атака обходит обнаружение человеческими ушами и начинает вмешиваться в работу ИИ. помощник. То, что звучит как пение птиц, на самом деле может быть одной из таких атак со скрытыми командами, передаваемыми выбранному вами голосовому помощнику.

Связанный

  • Версия Chrome для Nvidia DLSS уже готова к запуску, но вы пока не можете ее использовать
  • 9 способов, которыми Google Assistant может помочь в День Благодарения
  • Эксперты предупреждают, что ИИ-помощники вредят социальному развитию детей

Исследователи предполагают, что атаки, использующие психоакустическое сокрытие для маскировки своих истинных намерений, могут быть воспроизведены через приложение или скрыты в другом типе трансляции. Например, звук можно скрыть в рекламе, которая транслируется по телевидению или радио, чтобы одновременно поразить тысячи целей.

«[В] худшем случае злоумышленник может получить контроль над всей системой умного дома, включая камеры видеонаблюдения или системы сигнализации», – пишут исследователи. Фаст Компани. Они также организовали демонстрацию, чтобы показать, как такая атака может быть использована для отключения камеры наблюдения.

В этой теоретической атаке есть одна загвоздка: исследователи еще не запустили ее в эфире. Вместо этого они передали подделанные файлы, содержащие скрытую звуковую команду, непосредственно помощникам, чтобы они отчетливо услышали сообщение. Однако ученые уверены, что атака могла быть осуществлена ​​и другим способом. «В целом, можно скрыть любую транскрипцию в любом аудиофайле с почти 100-процентной вероятностью успеха», — заключили они в своей статье.

Существует не так много способов защититься от такой атаки, которая, чтобы быть ясным, потребует от кого-то изрядных усилий и маловероятна, даже если возможна. Используйте настройки безопасности выбранного голосового помощника, чтобы предотвратить любой доступ к конфиденциальной информации. На Алекса, например, вы можете требовать ПИН-код необходимо предоставить перед совершением покупки.

Рекомендации редакции

  • Что такое Amazon Alexa и что она может?
  • Лучшие навыки Alexa, которые можно использовать на Amazon Echo в 2023 году
  • Как найти призраков с помощью Alexa (и других страшных навыков)
  • Как продать родителям умного помощника
  • 5 уникальных и креативных вариантов использования функции обнаружения звука Alexa

Обновите свой образ жизниDigital Trends помогает читателям быть в курсе быстро меняющегося мира технологий благодаря всем последним новостям, забавным обзорам продуктов, содержательным редакционным статьям и уникальным кратким обзорам.