IA de reconhecimento de imagem Tem uma fraqueza. Isso pode consertar

click fraud protection

Você provavelmente está familiarizado com deepfakes, a “mídia sintética” alterada digitalmente que é capaz de enganar as pessoas fazendo-as ver ou ouvir coisas que nunca aconteceram de fato. Exemplos adversários são como deepfakes para IA de reconhecimento de imagem. sistemas - e embora eles não nos pareçam nem um pouco estranhos, eles são capazes de confundir as máquinas.

Conteúdo

  • Rechaçando ataques adversários
  • Mais trabalho ainda a ser feito

Vários anos atrás, pesquisadores do Laboratório de Ciência da Computação e Inteligência Artificial do Instituto de Tecnologia de Massachusetts (CSAIL) descobriram que eles poderiam enganar até mesmo algoritmos sofisticados de reconhecimento de imagem, confundindo objetos simplesmente alterando ligeiramente sua superfície textura. Também não foram pequenas confusões.

Tartaruga de reconhecimento de imagem reconhecida como um rifle

Na demonstração dos pesquisadores, eles mostraram que era possível fazer com que uma rede neural de ponta olhasse para uma tartaruga impressa em 3D e, em vez disso, visse um rifle. Ou olhar para uma bola de beisebol e concluir que é um café expresso. Se tal agnosia visual se manifestasse num ser humano, seria o tipo de estudo de caso neurológico que apareceria num livro como o clássico de Oliver Sacks.

O homem que confundiu sua esposa com um chapéu.

Vídeos recomendados

Exemplos adversários representam uma vulnerabilidade fascinante quando se trata de como a I.A. visual. sistemas veem o mundo. Mas eles também, como seria de esperar de uma falha que confunde uma tartaruga de brinquedo com um rifle, representam uma falha potencialmente alarmante. É algo que os pesquisadores estão tentando descobrir desesperadamente como consertar.

Agora, outro grupo de pesquisadores do MIT criou um novo sistema que poderia ajudar a evitar informações “adversárias”. No processo, eles imaginaram um caso de uso francamente aterrorizante para exemplos adversários, que poderia, se implementado por hackers, ser usado com efeitos mortais.

O cenário é este: os carros autônomos estão cada vez melhores na percepção do mundo ao seu redor. Mas e se, de repente, as câmeras de bordo de um carro baseadas em entradas visuais fossem propositalmente ou acidentalmente incapazes de identificar o que estava à sua frente? Classificar incorretamente um objeto na estrada – como não identificar e posicionar corretamente um pedestre – pode acabar muito, muito mal.

Rechaçando ataques adversários

“Nosso grupo tem trabalhado na interface de aprendizagem profunda, robótica e teoria de controle há vários anos – incluindo trabalhar no uso de RL [aprendizado por reforço] profundo para treinar robôs para navegar de maneira socialmente consciente em torno dos pedestres”, Michael Everett, pesquisador de pós-doutorado no Departamento de Aeronáutica e Astronáutica do MIT, disse ao Digital Trends. “Enquanto pensávamos em como levar essas ideias para veículos maiores e mais rápidos, as questões de segurança e robustez tornaram-se o maior desafio. Vimos uma grande oportunidade de estudar este problema em aprendizagem profunda na perspectiva de controle robusto e otimização robusta.”

Planejamento de movimento socialmente consciente com aprendizagem por reforço profundo

O aprendizado por reforço é uma abordagem de aprendizado de máquina baseada em tentativa e erro que, notoriamente, tem sido usada por pesquisadores para fazer com que os computadores aprendam a jogar videogame sem ser explicitamente ensinado como. O novo algoritmo de aprendizagem por reforço e algoritmo baseado em rede neural profunda da equipe é chamado CARRL, abreviação de Certified Adversarial Robustness for Deep Reinforcement Learning. Em essência, é um rede neural com uma dose adicional de ceticismo quando se trata do que está vendo.

Numa demonstração do seu trabalho, que contou com o apoio da Ford Motor Company, os investigadores construíram um algoritmo de aprendizagem por reforço capaz de jogar o clássico jogo Atari. Pong. Mas, ao contrário dos jogadores anteriores de RL, em sua versão, eles aplicaram um ataque adversário que desequilibrou a IA. avaliação do agente sobre a posição da bola no jogo, fazendo-a pensar que ela estava alguns pixels abaixo do que realmente era. Normalmente, isso colocaria a IA. jogador em grande desvantagem, fazendo com que ele perca repetidamente para o oponente do computador. Neste caso, porém, o agente RL pensa em todos os locais onde a bola poderia estar e, em seguida, coloca a raquete em algum lugar onde ela não erre, independentemente da mudança de posição.

“Esta nova categoria de algoritmos robustos de aprendizagem profunda será essencial para trazer IA promissora. técnicas para o mundo real.”

É claro que os jogos são muito mais simplificados do que o mundo real, como Everett admite prontamente.

“O mundo real tem muito mais incerteza do que os videogames, desde sensores imperfeitos ou ataques adversários, o que pode ser suficiente para enganar o aprendizado profundo sistemas para tomar decisões perigosas – [como] pintar um ponto na estrada [o que pode fazer com que um carro que dirige sozinho] desvie para outra faixa”, ele explicou. “Nosso trabalho apresenta um algoritmo RL profundo que é comprovadamente robusto para medições imperfeitas. A principal inovação é que, em vez de confiar cegamente nas suas medições, como é feito hoje, o nosso algoritmo pensa analisa todas as medições possíveis que poderiam ter sido feitas e toma uma decisão que considera o pior caso resultado."

Numa outra demonstração, mostraram que o algoritmo pode, num contexto de condução simulada, evitar colisões mesmo quando os seus sensores estão a ser atacados por um adversário que pretende que o agente colida. “Esta nova categoria de algoritmos robustos de aprendizagem profunda será essencial para trazer IA promissora. técnicas para o mundo real”, disse Everett.

Mais trabalho ainda a ser feito

Ainda é cedo para este trabalho e há mais que precisa ser feito. Há também o problema potencial de que isso poderia, em alguns cenários, fazer com que a I.A. agente se comporte de maneira muito conservadora, tornando-o menos eficiente. No entanto, é uma pesquisa valiosa que pode ter impactos profundos no futuro.

“[Existem outros projetos de pesquisa] que se concentram na proteção contra [certos tipos] de exemplo adversário, onde o trabalho da rede neural é classifique uma imagem e ela está certa [ou] errada, e a história termina aí”, disse Everett, quando questionado sobre o clássico jogo tartaruga versus rifle. problema. “Nosso trabalho se baseia em algumas dessas ideias, mas está focado no aprendizado por reforço, onde o agente tem que realizar ações e recebe alguma recompensa se se sair bem. Portanto, estamos a olhar para uma questão de longo prazo: ‘Se eu disser que isto é uma tartaruga, quais são as implicações futuras dessa decisão?’ e é aí que o nosso algoritmo pode realmente ajudar. Nosso algoritmo pensaria nas piores implicações futuras da escolha entre uma tartaruga ou um rifle, o que poderia ser um passo importante para resolver questões importantes de segurança quando a IA. as decisões dos agentes têm um longo prazo efeito."

Um artigo descrevendo a pesquisa é disponível para leitura no repositório eletrônico de pré-impressão arXiv.

Recomendações dos Editores

  • IA analógica? Parece loucura, mas pode ser o futuro
  • Aqui está o que uma IA de análise de tendências. acha que será a próxima grande novidade na tecnologia
  • A Califórnia tem um problema de apagão. As baterias gigantes de fluxo poderiam ser a solução?
  • Arquitetura algorítmica: devemos deixar a I.A. projetar edifícios para nós?
  • IA com detecção de emoção está aqui e pode estar na sua próxima entrevista de emprego