O MIT está ensinando carros autônomos a psicanalisar humanos na estrada

Em março de 2004, a Agência de Projetos de Pesquisa Avançada de Defesa dos EUA (DARPA) organizou um evento especial do Grande Desafio para testar a promessa – ou a falta dela – da geração atual de carros autônomos. Participantes dos principais A.I. laboratórios competiram por um prêmio de US$ 1 milhão; seus veículos personalizados tentando o seu melhor para navegar de forma autônoma por uma rota de 230 quilômetros pelo deserto de Mojave, na Califórnia. Não correu bem. A equipe “vencedora” conseguiu viajar apenas 12 quilômetros em várias horas antes de parar estremecendo. E pegando fogo.

Conteúdo

  • Orientação para Valor Social
  • Prevendo o comportamento dos motoristas

Uma década e meia, um muita coisa mudou. Carros autônomos percorreram com sucesso centenas de milhares de quilômetros em estradas reais. Não é controverso dizer que os humanos quase certamente estarão mais seguros em um carro dirigido por um robô do que em um dirigido por um humano. No entanto, embora eventualmente haja um ponto de inflexão em que todos os carros na estrada serão autônomos, também haverá será uma fase intermediária complicada, quando os carros autônomos terão que compartilhar a estrada com carros movidos por humanos. carros. Você sabe quem provavelmente serão as partes problemáticas neste cenário? É isso mesmo: os humanos carnudos, imprevisíveis, às vezes cautelosos, às vezes propensos à raiva na estrada.

xijian/Getty Images

Para tentar resolver este problema, pesquisadores do Laboratório de Ciência da Computação e Inteligência Artificial do MIT (CSAIL) criou um novo algoritmo destinado a permitir que carros autônomos classifiquem as “personalidades sociais” de outros motoristas no estrada. Da mesma forma que os humanos (muitas vezes de forma não científica) tentam verificar as respostas de outros condutores quando dizemos, movendo-se em um cruzamento, então os veículos autônomos tentarão descobrir com quem estão lidando para evitar acidentes no estrada.

Relacionado

  • Carros autônomos confusos com a neblina de São Francisco
  • Tesla espera que a versão beta completa da direção autônoma seja lançada globalmente até o final de 2022
  • Uma coisa estranha aconteceu com uma frota de carros autônomos

“Desenvolvemos um sistema que integra ferramentas da psicologia social na tomada de decisões e no controle de veículos autônomos”, Wilko Schwarting, assistente de pesquisa do MIT CSAIL, disse à Digital Trends. “É capaz de estimar o comportamento dos motoristas em relação ao quão egoísta ou altruísta um determinado motorista parece ser. A capacidade do sistema de estimar a chamada ‘Orientação de Valor Social’ dos motoristas permite prever melhor o que os motoristas humanos farão e, portanto, é capaz de dirigir com mais segurança.”

Vídeos recomendados

Orientação para Valor Social

No geral, as nossas estruturas de condução funcionam razoavelmente bem; dando prioridade a um motorista em detrimento de outro, dividindo-nos em faixas direcionais e assim por diante. Mas ainda existem muitos momentos mais subjetivos em que várias partes têm de descobrir como coordenar os seus esforços para completar uma manobra, por vezes a altas velocidades. Saber se você está lidando com um motorista impaciente que vai te cortar ou com um paciente que vai esperar ou abrir caminho pode significar a diferença entre uma jornada bem-sucedida e um fender bender complicado. O facto de existirem centenas de milhares de acidentes com mudanças de faixa, fusões e viragens à direita ou à esquerda todos os anos, só nos Estados Unidos, mostra que os humanos ainda não dominam esta arte subtil.

A Orientação para Valores Sociais faz parte do campo da tomada de decisões interdependentes, observando as interações estratégicas entre duas ou mais pessoas. Está enraizado na teoria dos jogos, cujos conceitos foram delineados pela primeira vez em um livro de 1944 de Oskar Morgenstein e John von Veumann intitulado Teoria dos jogos e comportamento econômico.

A ideia geral é essencialmente esta: os agentes têm as suas próprias preferências que podem ser ordenadas em termos da sua utilidade (nível de satisfação). Dentro desses parâmetros eles agirão de forma lógica, de acordo com essas preferências. Traduzido em comportamento ao dirigir, por mais imprevisível que a estrada possa parecer na hora do rush, sabendo o quão altruísta, pró-sociais, egoístas ou competitivos, os motoristas ao seu redor podem ser, você pode prever o comportamento para completar sua jornada sem problema.

Comportamento Social para Veículos Autônomos

Ao observar a maneira como outros carros dirigem, o algoritmo do MIT avalia outros motoristas quanto à “recompensa para os outros” vs. escala de “recompensa para si mesmo”. Isso significaria classificar os companheiros de estrada em categorias “altruístas”, “pró-sociais”, “egoístas”, “competitivos”, “sádicos”, “sadomasoquistas”, “masoquistas” e “mártires”. Ao aprender que nem todos os outros carros se comportam da mesma maneira, a equipe acredita que seu modelo pode ser uma adição bem-vinda aos sistemas de carros autônomos.

“Treinamos o sistema primeiro modelando cenários rodoviários onde cada motorista tentava maximizar seu próprio utilidade e analisando suas respostas mais eficazes à luz das decisões de todos os outros agentes”, Schwarting disse. “A utilidade incorpora o quanto um motorista pondera seu próprio benefício em relação ao benefício de outro motorista, ponderado pelo SVO. Com base nesse pequeno trecho de movimento de outros carros, nosso algoritmo poderia então prever o comportamento dos carros ao redor como cooperativo, altruísta ou egoísta durante as interações. Calibramos as recompensas com base em dados reais de direção com aprendizado de máquina, codificando essencialmente o quanto os motoristas humanos valorizam o conforto, a segurança ou o alcance rápido de seu objetivo.”

Prevendo o comportamento dos motoristas

Nos testes, a equipe mostrou que seu algoritmo poderia prever com mais precisão o comportamento de outros carros por um fator de 25%. Isso ajudou o veículo a saber quando deveria virar à esquerda ou virar na frente de um motorista que se aproximava.

“Também nos permite decidir quão cooperativo ou egoísta um veículo autônomo deve ser, dependendo do cenário”, continuou Schwarting. “Agir excessivamente conservador nem sempre é a opção mais segura porque pode causar mal-entendidos e confusão entre os motoristas humanos.”

Protótipo autônomo do Volkswagen e-Golf Hamburgo

A equipe diz que o algoritmo ainda não está pronto para o horário nobre em termos de testes rodoviários no mundo real. Mas eles continuam a desenvolvê-lo e pensam que as suas aplicações poderiam ir ainda mais além daquela descrita aqui. Por um lado, observar outros carros poderia ajudar os futuros veículos autônomos a aprender a exibir características mais semelhantes às humanas, que serão mais fáceis de serem compreendidas pelos motoristas humanos.

“[Além disso], isso pode ser útil não apenas para carros totalmente autônomos, mas para os carros existentes que usamos”, disse Schwarting. “Por exemplo, imagine que um carro entra repentinamente no seu ponto cego. Com o sistema [que desenvolvemos], você poderá receber um aviso no espelho retrovisor de que o carro no seu ponto cego tem um motorista agressivo, o que pode ser uma informação particularmente valiosa.”

Em seguida, os investigadores esperam aplicar o modelo a peões, bicicletas e outros agentes que possam aparecer em ambientes de condução. “Também gostaríamos de analisar outros sistemas robóticos que precisam interagir conosco, como os robôs domésticos”, observou Schwarting.

Recomendações dos Editores

  • A Volkswagen está lançando seu próprio programa de testes de carros autônomos nos EUA.
  • O suposto carro da Apple pode custar o mesmo que um Tesla Model S
  • Ex-funcionário da Apple se declara culpado de roubar segredos do Apple Car
  • Policiais ficam confusos ao pararem um carro autônomo vazio
  • Como uma grande van azul de 1986 abriu caminho para carros autônomos