Boné de beisebol LED é capaz de enganar a tecnologia de reconhecimento facial

Zhe Zhou

Zhe Zhou

Há um constante empurrão e puxão quando se trata de novas tecnologias relacionadas à segurança. Os investigadores inventarão um novo sistema de segurança, apenas para que outros encontrem uma forma de o contornar, antes que outros ainda apareçam e encontrem uma forma de o reforçar ainda mais. Esse é um ciclo vicioso e certamente se aplica ao software de reconhecimento facial, que agora é amplamente utilizado em tudo, desde segurança em aeroportos até desbloqueio de nossos dispositivos. Aparelhos iPhone X.

A novo projeto realizado por pesquisadores na China ameaça prejudicá-lo, no entanto, através da criação de um sistema cravejado de LED boné de beisebol, que é capaz de enganar os sistemas de reconhecimento facial fazendo-os pensar que você é outra pessoa inteiramente. O hack inteligente (mas assustador) envolve projetar pontos de luz infravermelha no rosto de uma pessoa, que são então detectados por câmeras de reconhecimento facial e interpretados erroneamente como detalhes faciais. Numa demonstração, os investigadores conseguiram enganar as câmaras de reconhecimento facial fazendo-as pensar que uma pessoa era outra pessoa (incluindo o cantor Moby) com mais de 70% de precisão.

chapéu de reconhecimento facial infravermelho 321434
chapéu de reconhecimento facial infravermelho 321433
chapéu de reconhecimento facial infravermelho 321435
chapéu de reconhecimento facial infravermelho 321432

“Ao lançar esse tipo de ataque, um invasor pode não apenas se esquivar das câmeras de vigilância; mais importante ainda, ele pode se passar pela vítima alvo e passar pelo sistema de autenticação facial, se apenas a foto da vítima for adquirida pelo invasor”, afirmam os pesquisadores. escreva em um artigo publicamente disponível. “… O ataque é totalmente inobservável para as pessoas próximas, porque não só a luz é invisível, mas também o dispositivo que fizemos para lançar o ataque é pequeno o suficiente. De acordo com nosso estudo sobre um grande conjunto de dados, os invasores têm… [uma] taxa de sucesso superior a 70% para encontrar um exemplo tão adversário que pode ser implementado por infravermelho.”

Vídeos recomendados

Este não é o único exemplo semelhante dos chamados “objetos adversários” que encontramos. Anteriormente, cobrimos óculos adversários que são capazes de tornar as pessoas irreconhecíveis ao reconhecimento facial e uma forma de alterar texturas em um objeto impresso em três para criar, por exemplo, sistemas de reconhecimento de imagem identificar uma tartaruga impressa em 3D como um rifle.

Embora o último estudo realizado na China não tenha sido revisado por pares e, portanto, não possamos garantir os resultados, ele parece que cada vez mais exemplos destacam as potenciais fraquezas do reconhecimento computacional de imagens.

Recomendações dos Editores

  • Tecnologia de reconhecimento facial para ursos visa manter os humanos seguros
  • Portland proíbe o uso público e privado de tecnologia de reconhecimento facial
  • Amazon proíbe a polícia de usar tecnologia de reconhecimento facial Rekognition por 1 ano
  • Tecnologia de reconhecimento facial da polícia pode identificar erroneamente pessoas em protestos, dizem especialistas
  • Reconhecimento facial militar dos EUA pode identificar pessoas a 1 km de distância

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.