Zhe Zhou
Hay un tira y afloja constante cuando se trata de nuevas tecnologías relacionadas con la seguridad. Los investigadores inventarán un nuevo sistema de seguridad, sólo para que otros encuentren una manera de eludirlo, antes de que otros lleguen y encuentren una manera de fortalecerlo aún más. Se trata de un círculo vicioso y ciertamente se aplica al software de reconocimiento facial, que ahora se utiliza ampliamente en todo, desde la seguridad de los aeropuertos hasta el desbloqueo de nuestro teléfono. Teléfonos iPhone X.
A nuevo proyecto llevado a cabo por investigadores en China amenaza con socavarlo, sin embargo, mediante la creación de un LED tachonado gorra de béisbol, que puede engañar a los sistemas de reconocimiento facial haciéndoles pensar que eres otra persona enteramente. El truco inteligente (pero aterrador) consiste en proyectar puntos de luz infrarroja en el rostro de una persona, que luego son detectados por cámaras de reconocimiento facial e interpretados erróneamente como detalles faciales. En una demostración, los investigadores pudieron engañar a las cámaras de reconocimiento facial haciéndoles pensar que una persona era otra (incluido el cantante Moby) con más del 70 por ciento de precisión.
“Al lanzar este tipo de ataque, un atacante no sólo puede esquivar las cámaras de vigilancia; Más importante aún, puede hacerse pasar por su víctima objetivo y pasar el sistema de autenticación facial, si el atacante solo adquiere la foto de la víctima”, afirman los investigadores. escribir en un documento disponible públicamente. “… El ataque es totalmente inobservable para las personas cercanas, porque no sólo la luz es invisible, sino que además el dispositivo que hicimos para lanzar el ataque es lo suficientemente pequeño. Según nuestro estudio sobre un gran conjunto de datos, los atacantes tienen... [una] tasa de éxito de más del 70 por ciento para encontrar un ejemplo tan conflictivo que pueda implementarse mediante infrarrojos”.
Vídeos recomendados
Este no es el único ejemplo similar de los llamados "objetos adversarios" con el que nos hemos topado. Anteriormente hemos cubierto Gafas adversas que pueden hacer que las personas sean irreconocibles. hasta el reconocimiento facial y una forma de alterar las texturas de un objeto impreso en 3 para crear, por ejemplo, sistemas de reconocimiento de imágenes. Identificar una tortuga impresa en 3D como un rifle.
Si bien el último estudio realizado en China no ha sido revisado por pares y, por lo tanto, no podemos garantizar los resultados, Parece que cada vez hay más ejemplos que resaltan las posibles debilidades del reconocimiento computacional de imágenes.
Recomendaciones de los editores
- La tecnología de reconocimiento facial para osos tiene como objetivo mantener seguros a los humanos
- Portland prohíbe el uso público y privado de la tecnología de reconocimiento facial
- Amazon prohíbe a la policía utilizar la tecnología de reconocimiento facial Rekognition durante 1 año
- La tecnología de reconocimiento facial de la policía podría identificar erróneamente a las personas en las protestas, dicen los expertos
- El reconocimiento facial militar de EE. UU. podría identificar a personas a 1 km de distancia
Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.