De onderzoekers van UC Berkeley en Georgetown University zijn zich hiervan terdege bewust en hebben daarom vorig jaar daartoe besloten onderzoeken hoe kwetsbaar precies de spraakherkenningssoftware die zoveel van onze computerapparaten aanstuurt, is dat ook echt. Ze concentreerden zich op Google Assistent, dat systeembreed voortleeft Android en binnen de Google-app op iOS, en ontwikkelden een manier om spraakopdrachten net genoeg te verminken zodat de Google Assistent ze kon begrijpen, maar ze waren voor de meeste mensen onbegrijpelijk.
Aanbevolen video's
Onderzoekers testten de herkenning van verschillende versluierde opdrachten, zoals ‘OK Google’, en maten het vermogen van de software om de boodschap te ontcijferen in vergelijking met dat van mensen. Wat ze ontdekten, vooral in het geval van ‘OK Google’, was dat het panel van deelnemers dit alleen kon om de gecodeerde zin 22 procent van de tijd te identificeren, maar de assistent begreep het 95 procent van de tijd tijd. Bovendien was de software beter in het decoderen van de versluierde versie dan de normale uitspraak van ‘OK Google’, wat een herkenningspercentage van slechts 90 procent opleverde.
Verwant
- Experts waarschuwen dat AI-assistenten de sociale ontwikkeling van kinderen schaden
- Amazon Echo is nog steeds de koning onder de slimme luidsprekers, ondanks het afnemende Amerikaanse marktaandeel
- Je Alexa-luidspreker kan worden gehackt met kwaadaardige audiotracks. En lasers.
Demo VoiceHack
Op het eerste gezicht kunnen veel van deze vervormde commando's statisch overkomen door de vage cadans van de spraak, maar dan versneld. Als we als mens weten wat de zinsnede is voordat we hem horen, wordt het oneindig gemakkelijker om hem te identificeren. Maar zonder die informatie staan we in veel gevallen versteld.
De studie merkt op dat sommige van de door elkaar gegooide commando's gemakkelijker voor ons te achterhalen zijn dan andere. ‘Bel 911’ leverde bijvoorbeeld een menselijk herkenningspercentage op van 94 procent, vergeleken met slechts 40 procent door Google Assistent, waarschijnlijk omdat het een uitdrukking is waar de grote meerderheid van de Amerikaans-Engelse sprekers voor geconditioneerd is horen. Maar de juiste combinatie van een nichecommando veranderde net genoeg zodat onze persoonlijke assistenten er ontvankelijk voor zijn terwijl wij dat zijn ons hoofd krabben vormt een duidelijk risico, aangezien stembediening op de meeste consumentenapparaten geen enkele vorm van stembediening heeft authenticatie.
Wat kunnen we doen om ons te beschermen tegen voice-hacking?
Een van de weinige preventieve maatregelen tegen dit soort stemgerichte manipulatie is dat veel commando's de assistenten ertoe aanzetten om achteraf om bevestiging te vragen. Zoals The Atlantic echter opmerkt hun stuk over het onderzoek, dat is slechts een kleine wegversperring die moet worden opgelost met een vervormd 'ja', en als alles te snel gebeurt zodat de gebruiker niet kan beseffen wat er aan de hand is, zullen ze het niet op tijd kunnen stoppen.
Sommige door elkaar gegooide commando's zijn voor ons gemakkelijker te achterhalen dan andere.
Het team vervolgde zijn ontdekking door manieren voor te stellen voor diensten zoals Google Assistant, Apple's Siri en Amazon's Alexa zouden deze aanvallen kunnen voorkomen, en het blijkt dat er verschillende methoden zijn die bedrijven mogelijk geneigd zijn te implementeren. Sommige verdedigingsmechanismen, zoals een audio-CAPTCHA, zouden kunnen worden ingezet als laatste bevestiging om menselijke gebruikers van machines te onderscheiden – hoewel de onderzoekers erop wijzen blijkt dat de algoritmen die audio-CAPTCHA’s aandrijven relatief verouderd zijn en geen gelijke tred hebben gehouden met de vooruitgang op het gebied van spraakherkenningstechnologie. Om nog maar te zwijgen van het feit dat CAPTCHA’s irritant zijn om mee om te gaan.
Een ingewikkeldere oplossing is het afstemmen van de herkenning op de stem van de eigenaar, waar veel diensten al in beperkte mate gebruik van maken. Het rapport geeft echter toe dat dit voorstel training van het apparaat vereist, en een probleem vormt voor gadgets die bedoeld zijn om door meerdere mensen te worden gebruikt, zoals de Amazon Echo. Het team heeft vastgesteld dat een van de meest praktische en effectieve verdedigingen een filter zou zijn dat de audio enigszins verslechtert kwaliteit van de commando's, waardoor de meeste versluierde zinnen onherkenbaar worden voor het apparaat, terwijl menselijke zinnen wel kunnen passeren door.
Hoewel meldingen van dit soort spraakgestuurde aanvallen ongebruikelijk zijn, zo niet onbestaande, is het altijd nuttig om op de hoogte te zijn van gebieden waar kwetsbaarheden liggen, zodat deze kunnen worden beteugeld voordat de problemen echt beginnen op te duiken omhoog. Dankzij het onderzoek dat hier is gedaan, zijn we iets beter voorbereid op het geval een golf van satanisch klinkend gefluister onze smartphones begint te vertellen wat ze moeten doen.
Aanbevelingen van de redactie
- Vergeet ChatGPT: Siri en Google Assistant doen deze vier dingen beter
- Siri en Google Assistant zeggen dat ze nu Black Lives Matter ondersteunen
- Alexa kan nu meer emotie tonen als je sportteam verliest
- Uit nieuw onderzoek blijkt dat slimme luidsprekers kunnen worden aangetast door lasers
- Met de nieuwe privacyupdate van Google kun je de spraakopdrachtgeschiedenis van de Assistent verwijderen
Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.