Ця невинна пташка, яка співає свою ранкову пісню, може бути не такою вже й невинною. За словами вчених з Рурського університету в Бохумі, Німеччина, маніпульовані аудіохвилі від звуків щебетання птахів можуть бути використані для атаки на голосових помічників.
За словами дослідників, маніпулювані аудіофайли є частиною так званого «змагального нападу». який розроблений, щоб заплутати глибокі нейронні мережі, які допомагають помічникам на основі штучного інтелекту, як Apple Siri, Google помічник, і Amazon Алекса функція.
Рекомендовані відео
Використовуючи звук пташиного щебетання — або відредаговані версії пісень чи людську мову — маніпулюючи таким чином, що лише мікрофон на розумній колонці або смартфон може підхопити, атака обходить виявлення людських вух і починає втручатися в ШІ. помічник. Те, що звучить як пташиний спів, насправді може бути однією з цих атак із прихованими командами, які доставляються голосовому помічнику за вибором.
Пов'язані
- Chrome розглядає Nvidia DLSS налаштовано на запуск, але ви ще не можете використовувати його
- 9 способів, як Google Assistant може допомогти на День подяки
- Експерти попереджають, що помічники ШІ шкодять соціальному розвитку дітей
Дослідники припускають, що атаки, які використовують психоакустичне приховування для маскування своїх справжніх намірів, можуть відтворюватися через додаток або приховані в іншому типі трансляції. Наприклад, звук може бути прихований у рекламі, яка крутиться по телевізору чи радіо, щоб вразити тисячі цілей одночасно.
«[У] найгіршому випадку зловмисник може отримати контроль над усією системою «розумного дому», включаючи камери безпеки або системи сигналізації», — пишуть дослідники. Швидка компанія. Вони також зібрали демонстрацію, щоб показати, як така атака може бути використана для вимкнення камери безпеки.
У цій теоретичній атаці є заковика: дослідники ще не запускали її через трансляцію. Натомість вони передали підроблені файли, які містять приховану звукову команду, безпосередньо в помічники, щоб вони чітко чули повідомлення. Однак вчені впевнені, що атака могла бути здійснена іншим способом. «Загалом можна приховати будь-яку транскрипцію в будь-якому аудіофайлі з рівнем успіху майже на 100 відсотків», — підсумували вони у своїй статті.
Існує не так багато способів захисту від такої атаки, яка, зрозуміло, вимагатиме від когось значних зусиль, і це малоймовірно, навіть якщо можливо. Використовуйте налаштування безпеки на обраному голосовому помічнику, щоб запобігти будь-якому доступу до конфіденційної інформації. Увімкнено Алекса, наприклад, можна вимагати PIN-код надається до завершення покупки.
Рекомендації редакції
- Що таке Amazon Alexa і що вона може робити?
- Найкращі навички Alexa для використання на Amazon Echo у 2023 році
- Як знайти привидів за допомогою Alexa (та інших страшних навичок)
- Як продати батькам розумного помічника
- 5 унікальних і креативних застосувань функції виявлення звуку Alexa
Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.