Aquele pássaro de som inocente cantando sua canção matinal pode não ser tão inocente assim. De acordo com cientistas da Ruhr-Universitaet em Bochum, Alemanha, ondas de áudio manipuladas a partir dos sons do chilrear dos pássaros poderiam ser usadas para lançar um ataque contra assistentes de voz.
Segundo os pesquisadores, os arquivos de áudio manipulados fazem parte do que é chamado de “ataque adversário”, que foi projetado para confundir as redes neurais profundas que ajudam assistentes com inteligência artificial como da Apple Siri, do Google Assistentee da Amazon Alexa função.
Vídeos recomendados
Usando o som do chilrear dos pássaros - ou versões editadas de músicas ou fala humana - manipuladas de uma forma que apenas o microfone do seu alto-falante inteligente ou Smartphone pode detectar, o ataque ignora a detecção dos ouvidos humanos e começa a interferir na IA. assistente. O que parece o canto de um pássaro pode na verdade ser um desses ataques com comandos ocultos sendo entregues ao assistente de voz de sua escolha.
Relacionado
- A versão do Chrome sobre o Nvidia DLSS está prestes a ser lançada, mas você ainda não pode usá-la
- 9 maneiras pelas quais o Google Assistente pode ajudar no Dia de Ação de Graças
- Especialistas alertam que assistentes de IA estão prejudicando o desenvolvimento social das crianças
Os pesquisadores sugerem que os ataques, que usam ocultação psicoacústica para mascarar suas verdadeiras intenções, poderiam ser reproduzidos por meio de um aplicativo ou ocultos em outro tipo de transmissão. Por exemplo, o som pode ser escondido em um comercial que passa na TV ou no rádio para atingir milhares de alvos ao mesmo tempo.
“[Na] pior das hipóteses, um invasor pode conseguir assumir o controle de todo o sistema doméstico inteligente, incluindo câmeras de segurança ou sistemas de alarme”, escreveram os pesquisadores, por Empresa rápida. Eles também montaram uma demonstração para mostrar como tal ataque poderia ser usado para desativar uma câmera de segurança.
Há um porém neste ataque teórico: os pesquisadores ainda não o lançaram por meio de uma transmissão. Em vez disso, eles alimentaram os arquivos adulterados que contêm o comando de áudio oculto diretamente nos assistentes para que ouçam a mensagem com clareza. No entanto, os cientistas estão confiantes de que o ataque poderá ser realizado por outros meios. “Em geral, é possível ocultar qualquer transcrição em qualquer arquivo de áudio com uma taxa de sucesso de quase 100%”, concluíram no artigo.
Não existem muitas maneiras de se defender contra tal ataque, o que, para ser claro, exigiria muito esforço para alguém executar e é improvável, mesmo que possível. Use as configurações de segurança do assistente de voz de sua preferência para impedir qualquer acesso a informações confidenciais. Sobre Alexa, por exemplo, você pode exigir um PIN a ser fornecido antes de concluir uma compra.
Recomendações dos Editores
- O que é Amazon Alexa e o que ele pode fazer?
- As melhores habilidades de Alexa para usar em seu Amazon Echo em 2023
- Como encontrar fantasmas com Alexa (e outras habilidades assustadoras)
- Como vender aos seus pais um assistente inteligente
- 5 usos exclusivos e criativos para o recurso de detecção de som do Alexa
Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.