El sonido del canto de los pájaros puede piratear asistentes de voz como Alexa

Asistente de BestAI/Flickr

Ese pájaro que suena inocente cantando su canción matutina puede no ser tan inocente después de todo. Según científicos de la Ruhr-Universitaet en Bochum, Alemania, las ondas de audio manipuladas del canto de los pájaros podrían usarse para lanzar un ataque contra los asistentes de voz.

Según los investigadores, los archivos de audio manipulados son parte de lo que se denomina un “ataque adversario”. que está diseñado para confundir las redes neuronales profundas que ayudan a los asistentes impulsados ​​por inteligencia artificial como de manzana siri, Google Asistentey de Amazon alexa función.

Vídeos recomendados

Usar el sonido del canto de los pájaros (o versiones editadas de canciones o del habla humana) manipulado de manera que solo el micrófono de su altavoz inteligente o teléfono inteligente puede retomar, el ataque pasa por alto la detección de los oídos humanos y comienza a entrometerse con la I.A. asistente. Lo que suena como el canto de un pájaro podría ser en realidad uno de estos ataques con comandos ocultos que se envían al asistente de voz de su elección.

Relacionado

  • La versión de Chrome de Nvidia DLSS está lista para lanzarse, pero aún no puedes usarla
  • Nueve formas en que el Asistente de Google puede ayudar con el Día de Acción de Gracias
  • Los expertos advierten que los asistentes de IA están perjudicando el desarrollo social de los niños

Los investigadores sugieren que los ataques, que utilizan ocultación psicoacústica para enmascarar sus verdaderas intenciones, podrían reproducirse a través de una aplicación u ocultarse en otro tipo de transmisión. Por ejemplo, el sonido podría ocultarse en un comercial que se reproduce en la televisión o la radio para alcanzar miles de objetivos a la vez.

"[En] el peor de los casos, un atacante podría apoderarse de todo el sistema doméstico inteligente, incluidas las cámaras de seguridad o los sistemas de alarma", escribieron los investigadores, según Empresa rapida. También organizaron una demostración para mostrar cómo se podría utilizar un ataque de este tipo para desactivar una cámara de seguridad.

Este ataque teórico tiene un inconveniente: los investigadores aún no lo han lanzado a través de una transmisión. En cambio, han introducido los archivos manipulados que contienen el comando de audio oculto directamente a los asistentes para que escuchen el mensaje con claridad. Sin embargo, los científicos confían en que el ataque podría llevarse a cabo por otros medios. "En general, es posible ocultar cualquier transcripción en cualquier archivo de audio con una tasa de éxito de casi el 100 por ciento", concluyeron en su artículo.

No hay muchas formas de defenderse de un ataque de este tipo, que, para ser claros, requeriría una buena cantidad de esfuerzo para que alguien lo ejecute y es poco probable, incluso si es posible. Utilice la configuración de seguridad de su asistente de voz de elección para evitar cualquier acceso a información confidencial. En alexa, por ejemplo, puedes requiere un PIN que se proporcionará antes de completar la compra.

Recomendaciones de los editores

  • ¿Qué es Amazon Alexa y qué puede hacer?
  • Las mejores habilidades de Alexa para usar en tu Amazon Echo en 2023
  • Cómo encontrar fantasmas con Alexa (y otras habilidades aterradoras)
  • Cómo venderles a tus padres un asistente inteligente
  • 5 usos únicos y creativos para la función de detección de sonido de Alexa

Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.