Изследователите от Калифорнийския университет в Бъркли и Джорджтаунския университет са наясно с това, поради което миналата година те решиха да проучете точно колко уязвими софтуерът за разпознаване на глас, който захранва толкова много от нашите компютърни устройства, наистина е такъв. Те се фокусираха върху Google Assistant, който живее в цялата система Android и в рамките на приложението Google на iOS и разработи начин за изкривяване на гласови команди, достатъчно, за да може Google Assistant да ги разбере, но те бяха неразбираеми за повечето хора.
Препоръчани видеоклипове
Изследователите тестваха разпознаването на няколко обфусцирани команди, като „OK Google“, и измериха способността на софтуера да дешифрира съобщението в сравнение с тази на хората. Това, което откриха, особено в случая с „OK Google“, беше, че панелът от участници беше в състояние само за идентифициране на кодираната фраза в 22 процента от времето, но Асистентът я разбра в 95 процента от време. Нещо повече, софтуерът беше по-добър в декодирането на обърканата версия от нормалното произношение на „OK Google“, което доведе до степен на разпознаване от само 90 процента.
Свързани
- Експертите предупреждават, че асистентите с изкуствен интелект вредят на социалното развитие на децата
- Amazon Echo все още е крал сред интелигентните високоговорители въпреки намаляващия пазарен дял в САЩ
- Вашият високоговорител Alexa може да бъде хакнат със злонамерени аудио записи. И лазери.
Демо VoiceHack
На пръв поглед много от тези изкривени команди може просто да изглеждат статични с неясния каданс на речта, само че ускорен. Като хора, когато знаем каква е фразата, преди да я чуем, става безкрайно по-лесно да я идентифицираме. Но без тази информация в много случаи оставаме в безизходица.
Проучването отбелязва, че някои от обърканите команди са по-лесни за разбиране от други. „Обадете се на 911“ например даде процент на разпознаване от хора от 94 процента, в сравнение със само 40 процента от Google Помощник, вероятно защото това е фраза, към която по-голямата част от говорещите американски английски са предварително обучени чувам. Но правилната комбинация от команда за ниша е променена достатъчно, така че нашите лични асистенти да я приемат, докато ние сме оставяйки да си чешем главите, представлява очевиден риск, като се има предвид, че гласовите контроли в повечето потребителски устройства липсват под всякаква форма удостоверяване.
Какво можем да направим, за да се предпазим от гласово хакване?
Една от малкото превантивни мерки срещу този вид насочена към гласа манипулация е, че много команди подканват асистентите да поискат потвърждение след това. Въпреки това, както посочва The Atlantic в тяхната част за проучването, това е само малка пречка за изчистване с изкривено „да“ и ако всичко се случи твърде бързо, за да може потребителят да разбере какво се случва, той няма да може да го спре навреме.
Някои от обърканите команди са по-лесни за разбиране от други.
Екипът проследи откритието си, като предложи начини за услуги като Google Assistant, Siri на Apple и Amazon Алекса може да предотврати тези атаки и се оказва, че има различни методи, които компаниите може да са склонни да прилагат. Някои защити, като аудио CAPTCHA, могат да бъдат добавени като окончателно потвърждение за разграничаване на човешки потребители от машини - въпреки че изследователите посочват че алгоритмите, които захранват аудио CAPTCHA, са относително остарели и не са в крак с напредъка, постигнат в технологията за разпознаване на реч. Да не говорим, че работата с CAPTCHA е вбесяваща.
По-сложно решение е приспособяването на разпознаването към гласа на собственика, което много услуги вече използват в ограничен капацитет. Докладът обаче признава, че предложението изисква обучение от страна на устройството и представлява проблем за джаджи, предназначени за използване от множество хора, като Amazon Echo. Екипът е определил, че една от най-практичните и ефективни защити ще бъде филтър, който леко влошава звука качество на командите, което прави повечето замъглени фрази неразпознаваеми за устройството, като същевременно позволява на човешки такива да преминат през.
Въпреки че докладите за гласови атаки от този вид са необичайни, ако не и несъществуващи, те винаги са полезни да сте наясно с областите, в които има уязвимости, така че да могат да бъдат ограничени, преди проблемите наистина да започнат да се появяват нагоре. Благодарение на изследването, направено тук, ще бъдем малко по-подготвени в случай, че вълна от сатанински звучащ шепот започне да казва на нашите смартфони какво да правят.
Препоръки на редакторите
- Забравете ChatGPT – Siri и Google Assistant правят тези 4 неща по-добре
- Siri и Google Assistant казват, че вече поддържат Black Lives Matter
- Alexa вече може да показва повече емоции, когато вашият спортен отбор губи
- Нови изследвания установяват, че интелигентните високоговорители могат да бъдат компрометирани от лазери
- Новата актуализация на поверителността на Google ви позволява да изтриете историята на гласовите команди на Асистент
Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.