Дослідники знайшли спосіб зламати ваш телефон за допомогою голосових команд

зламати голосові команди Google Now Nexus 6
Між зловмисним програмним забезпеченням, яке ховається в, здавалося б, невинних програмах, і смертоносні рядки емодзі, боротьба за безпеку наших розумних пристроїв не закінчується. Кожен новий режим взаємодії, будь то голосове керування чи унікальний ідентифікатор, як-от відбиток пальця чи обличчя визнання, представляє ще одне місце, за допомогою якого хакери можуть отримати доступ і маніпулювати технологіями навколо нас.

Дослідники з Каліфорнійського університету в Берклі та Джорджтаунського університету добре усвідомлюють це, тому минулого року вони вирішили точно дослідити, наскільки вразливі програмне забезпечення для розпізнавання голосу, яке працює над багатьма нашими комп’ютерними пристроями, справді є таким. Вони зосередилися на Google Assistant, який живе в системі Android і в додатку Google на iOS, і розробив спосіб спотворення голосових команд настільки, щоб Google Assistant міг їх зрозуміти, але вони були незрозумілі для більшості людей.

Рекомендовані відео

Дослідники перевірили розпізнавання кількох заплутаних команд, як-от «OK Google», і виміряли здатність програмного забезпечення розшифровувати повідомлення порівняно з здатністю людей. Те, що вони виявили, зокрема у випадку «OK Google», полягало в тому, що панель учасників була здатна лише щоб визначити зашифровану фразу 22 відсотки часу, але Асистент розумів її 95 відсотків час. Більше того, програмне забезпечення краще розшифрувало заплутану версію, ніж звичайну вимову «OK Google», що дало рівень розпізнавання лише 90 відсотків.

Пов'язані

  • Експерти попереджають, що помічники ШІ шкодять соціальному розвитку дітей
  • Amazon Echo все ще є королем серед розумних колонок, незважаючи на зниження частки ринку США
  • Ваш динамік Alexa може бути зламаний за допомогою шкідливих звукових доріжок. І лазери.

Демо VoiceHack

На перший погляд, багато з цих спотворених команд можуть виглядати статичними з невиразною каденцією мови, лише прискореною. Як людям, коли ми знаємо, що таке фраза, перш ніж почути її, її стає нескінченно легше ідентифікувати. Але без цієї інформації в багатьох випадках ми залишаємося в глухому куті.

Дослідження зазначає, що деякі з переплутаних команд нам легше зрозуміти, ніж інші. Наприклад, «Дзвінок 911» показав, що люди розпізнали 94 відсотки, у порівнянні з лише 40 відсотками Google Помічник, мабуть, тому, що це фраза, до якої звикли більшість носіїв американської англійської мови чути. Але правильну комбінацію нішевої команди змінено настільки, щоб наші персональні помічники сприйняли її, поки ми залишаючись чухати голову, становить очевидний ризик, враховуючи, що голосове керування в більшості споживчих пристроїв не має будь-якої форми аутентифікація.

Що ми можемо зробити, щоб захиститися від злому голосу?

Одна з небагатьох профілактичних заходів проти такого роду голосових маніпуляцій полягає в тому, що багато команд спонукають помічників запитувати підтвердження пізніше. Однак, як зазначає The Atlantic в їхній твір про навчання, це лише невеликий блокпост, який потрібно подолати спотвореним «так», і якщо все відбувається надто швидко, щоб користувач міг зрозуміти, що відбувається, він не зможе це вчасно зупинити.

Деякі зі змішаних команд нам легше зрозуміти, ніж інші.

Команда продовжила своє відкриття, запропонувавши такі сервіси, як Google Assistant, Siri від Apple і Amazon. Алекса може запобігти цим атакам, і виявилося, що існують різні методи, які компанії можуть бути схильні застосовувати. Деякі засоби захисту, як-от аудіо CAPTCHA, можуть використовуватися як остаточне підтвердження, щоб відрізнити користувачів від машин, хоча дослідники вказують виявили, що алгоритми, які використовують аудіо CAPTCHA, є відносно застарілими та не встигають за прогресом у технології розпізнавання мовлення. Не кажучи вже про те, що мати справу з CAPTCHA неприємно.

Більш складним рішенням є пристосування розпізнавання до голосу власника, яке багато сервісів уже використовують в обмежених можливостях. Однак у звіті визнається, що пропозиція вимагає навчання з боку пристрою та створює проблему для гаджетів, призначених для використання кількома людьми, як-от Amazon Echo. Команда визначила, що одним із найбільш практичних і ефективних засобів захисту є фільтр, який трохи погіршує звук якість команд, що робить більшість заплутаних фраз нерозпізнаними для пристрою, дозволяючи передати людські команди через.

Хоча повідомлення про голосові атаки такого роду є рідкістю, якщо не взагалі відсутні, це завжди корисно бути в курсі областей, де є вразливі місця, щоб їх можна було приборкати до того, як проблеми дійсно почнуть виникати вгору. Завдяки проведеному тут дослідженню ми будемо трохи більш підготовлені, якщо хвиля сатанинського шепоту почне говорити нашим смартфонам, що робити.

Рекомендації редакції

  • Забудьте про ChatGPT — Siri та Google Assistant роблять ці 4 речі краще
  • Siri та Google Assistant кажуть, що тепер вони підтримують Black Lives Matter
  • Тепер Alexa може виявляти більше емоцій, коли ваша спортивна команда програє
  • Нове дослідження показує, що розумні колонки можуть бути скомпрометовані лазерами
  • Нове оновлення конфіденційності від Google дозволяє видаляти історію голосових команд Асистента

Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.