Звук пташиного щебетання може зламати голосових помічників, таких як Alexa

BestAI Assistant/Flickr

Ця невинна пташка, яка співає свою ранкову пісню, може бути не такою вже й невинною. За словами вчених з Рурського університету в Бохумі, Німеччина, маніпульовані аудіохвилі від звуків щебетання птахів можуть бути використані для атаки на голосових помічників.

За словами дослідників, маніпулювані аудіофайли є частиною так званого «змагального нападу». який розроблений, щоб заплутати глибокі нейронні мережі, які допомагають помічникам на основі штучного інтелекту, як Apple Siri, Google помічник, і Amazon Алекса функція.

Рекомендовані відео

Використовуючи звук пташиного щебетання — або відредаговані версії пісень чи людську мову — маніпулюючи таким чином, що лише мікрофон на розумній колонці або смартфон може підхопити, атака обходить виявлення людських вух і починає втручатися в ШІ. помічник. Те, що звучить як пташиний спів, насправді може бути однією з цих атак із прихованими командами, які доставляються голосовому помічнику за вибором.

Пов'язані

  • Chrome розглядає Nvidia DLSS налаштовано на запуск, але ви ще не можете використовувати його
  • 9 способів, як Google Assistant може допомогти на День подяки
  • Експерти попереджають, що помічники ШІ шкодять соціальному розвитку дітей

Дослідники припускають, що атаки, які використовують психоакустичне приховування для маскування своїх справжніх намірів, можуть відтворюватися через додаток або приховані в іншому типі трансляції. Наприклад, звук може бути прихований у рекламі, яка крутиться по телевізору чи радіо, щоб вразити тисячі цілей одночасно.

«[У] найгіршому випадку зловмисник може отримати контроль над усією системою «розумного дому», включаючи камери безпеки або системи сигналізації», — пишуть дослідники. Швидка компанія. Вони також зібрали демонстрацію, щоб показати, як така атака може бути використана для вимкнення камери безпеки.

У цій теоретичній атаці є заковика: дослідники ще не запускали її через трансляцію. Натомість вони передали підроблені файли, які містять приховану звукову команду, безпосередньо в помічники, щоб вони чітко чули повідомлення. Однак вчені впевнені, що атака могла бути здійснена іншим способом. «Загалом можна приховати будь-яку транскрипцію в будь-якому аудіофайлі з рівнем успіху майже на 100 відсотків», — підсумували вони у своїй статті.

Існує не так багато способів захисту від такої атаки, яка, зрозуміло, вимагатиме від когось значних зусиль, і це малоймовірно, навіть якщо можливо. Використовуйте налаштування безпеки на обраному голосовому помічнику, щоб запобігти будь-якому доступу до конфіденційної інформації. Увімкнено Алекса, наприклад, можна вимагати PIN-код надається до завершення покупки.

Рекомендації редакції

  • Що таке Amazon Alexa і що вона може робити?
  • Найкращі навички Alexa для використання на Amazon Echo у 2023 році
  • Як знайти привидів за допомогою Alexa (та інших страшних навичок)
  • Як продати батькам розумного помічника
  • 5 унікальних і креативних застосувань функції виявлення звуку Alexa

Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.