Os pesquisadores da UC Berkeley e da Universidade de Georgetown estão bem cientes disso, e é por isso que no ano passado decidiram investigar precisamente o quão vulnerável o software de reconhecimento de voz que alimenta tantos dos nossos dispositivos de computação realmente é. Eles se concentraram em Google Assistente, que vive em todo o sistema em Android e no aplicativo do Google no iOS, e desenvolveu uma maneira de distorcer comandos de voz apenas o suficiente para que o Google Assistente pudesse entendê-los, mas eles eram ininteligíveis para a maioria dos humanos.
Vídeos recomendados
Os pesquisadores testaram o reconhecimento de vários comandos ofuscados, como “OK Google”, e mediram a capacidade do software de decifrar a mensagem em comparação com a dos humanos. O que descobriram, especialmente no caso do “OK Google”, foi que o painel de participantes só conseguiu identificar a frase embaralhada 22% das vezes, mas o Assistente entendeu 95% das vezes. tempo. Além do mais, o software foi melhor na decodificação da versão ofuscada do que na pronúncia normal de “OK Google”, o que rendeu uma taxa de reconhecimento de apenas 90%.
Relacionado
- Especialistas alertam que assistentes de IA estão prejudicando o desenvolvimento social das crianças
- Amazon Echo ainda é o rei entre os alto-falantes inteligentes, apesar do declínio da participação no mercado dos EUA
- Seu alto-falante Alexa pode ser hackeado com faixas de áudio maliciosas. E lasers.
Demonstração VoiceHack
À primeira vista, muitos desses comandos distorcidos podem parecer estáticos com a cadência vaga da fala, apenas acelerada. Como humanos, quando sabemos qual é a frase antes de ouvi-la, torna-se infinitamente mais fácil identificá-la. Mas sem essa informação, em muitos casos, ficamos perplexos.
O estudo observa que alguns dos comandos confusos são mais fáceis de descobrir do que outros. “Ligue para o 911”, por exemplo, rendeu uma taxa de reconhecimento humano de 94%, em comparação com apenas 40% do Google Assistente, provavelmente porque é uma frase que a grande maioria dos falantes de inglês americano foi pré-condicionada ouvir. Mas, a combinação certa de um comando de nicho alterou apenas o suficiente para que nossos assistentes pessoais sejam receptivos a ele enquanto estamos ficar coçando a cabeça representa um risco óbvio, considerando que os controles de voz na maioria dos dispositivos de consumo não possuem qualquer forma de autenticação.
O que podemos fazer para nos proteger contra hackers de voz?
Uma das poucas medidas preventivas contra esse tipo de manipulação direcionada por voz é que muitos comandos solicitam que os assistentes solicitem confirmação posteriormente. No entanto, como aponta The Atlantic em seu artigo sobre o estudo, isso é apenas um pequeno obstáculo a ser resolvido com um “sim” distorcido e, se tudo acontecer rápido demais para que o usuário perceba o que está acontecendo, ele não será capaz de pará-lo a tempo.
Alguns dos comandos confusos são mais fáceis de descobrir do que outros.
A equipe deu seguimento à sua descoberta propondo maneiras de serviços como o Google Assistant, o Siri da Apple e o da Amazon. Alexa poderia impedir esses ataques, e acontece que há uma variedade de métodos que as empresas podem estar inclinadas a implementar. Algumas defesas, como um CAPTCHA de áudio, poderiam ser utilizadas como uma confirmação final para distinguir usuários humanos de máquinas – embora os pesquisadores apontem destacam que os algoritmos que alimentam os CAPTCHAs de áudio estão relativamente desatualizados e não acompanharam os avanços feitos na tecnologia de reconhecimento de fala. Sem mencionar que os CAPTCHAs são irritantes de lidar.
Uma solução mais complicada é adaptar o reconhecimento à voz do proprietário, algo que muitos serviços já empregam de forma limitada. No entanto, o relatório admite que a proposta exige treinamento por parte do dispositivo e representa um problema para dispositivos destinados a serem usados por várias pessoas, como o Amazon Echo. A equipe determinou que uma das defesas mais práticas e eficazes seria um filtro que degrada ligeiramente o áudio qualidade dos comandos, tornando a maioria das frases ofuscadas irreconhecíveis para o dispositivo, ao mesmo tempo que permite a passagem de frases humanas através.
Embora relatos de ataques baseados em voz desse tipo sejam incomuns, se não inexistentes, é sempre útil estar ciente das áreas onde existem vulnerabilidades para que possam ser controladas antes que os problemas realmente comecem a surgir acima. Graças à pesquisa feita aqui, estaremos um pouco mais preparados caso uma onda de sussurros com som satânico comece a dizer aos nossos smartphones o que fazer.
Recomendações dos Editores
- Esqueça o ChatGPT – Siri e Google Assistant fazem essas quatro coisas melhor
- Siri e Google Assistant dizem que agora apoiam Black Lives Matter
- Alexa agora pode mostrar mais emoção quando seu time esportivo perde
- Nova pesquisa descobre que alto-falantes inteligentes podem ser comprometidos por lasers
- A nova atualização de privacidade do Google permite excluir o histórico de comandos de voz do Assistente
Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.