As máquinas estão ficando incrivelmente boas em reconhecer emoções humanas

Até muito recentemente, tivemos que interagir com os computadores nos seus próprios termos. Para usá-los, os humanos tiveram que aprender informações projetadas para serem compreendidas pelo computador: seja digitando comandos ou clicando em ícones com o mouse. Mas as coisas estão mudando. A ascensão da IA assistentes de voz como Siri e Alexa possibilitam que as máquinas entendam os humanos como eles normalmente interagiriam no mundo real. Agora os pesquisadores estão buscando o próximo Santo Graal: computadores que possam compreender as emoções.

Conteúdo

  • Emoções são importantes
  • Desafios adiante?

Seja o robô T-1000 de Arnold Schwarzenegger em Exterminador do Futuro 2 ou Dados, o andróide personagem em Star Trek: a próxima geração, a incapacidade das máquinas de compreender e responder adequadamente às emoções humanas tem sido um tropo comum da ficção científica. No entanto, pesquisas do mundo real mostram que os algoritmos de aprendizado de máquina estão ficando impressionantemente bons em reconhecer os sinais corporais que usamos para sugerir como nos sentimos por dentro. E poderia levar a uma nova fronteira de interações homem-máquina.

Afetiva

Não nos leve a mal: as máquinas ainda não são tão astutas quanto o ser humano comum quando se trata de reconhecer as várias maneiras como expressamos emoções. Mas eles estão melhorando muito. Num teste recente realizado por investigadores da Dublin City University, da University College London, da Universidade de Bremen e do Queen’s Universidade de Belfast, uma combinação de pessoas e algoritmos foi solicitada a reconhecer uma variedade de emoções observando o rosto humano expressões.

Relacionado

  • IA com detecção de emoção está aqui e pode estar na sua próxima entrevista de emprego
  • Os cientistas estão usando IA. para criar código genético humano artificial
  • Conheci os humanos artificiais da Samsung e eles me mostraram o futuro da IA.

As emoções incluíam felicidade, tristeza, raiva, surpresa, medo e nojo. Embora os humanos ainda superem as máquinas em geral (com uma precisão de 73% em média, em comparação com 49% a 62% dependendo do algoritmo), as pontuações acumuladas pelos vários bots testados mostraram o quão longe eles chegaram neste respeito. O mais impressionante é que a felicidade e a tristeza foram duas emoções nas quais as máquinas podem superar os humanos em adivinhações, simplesmente olhando para os rostos. Esse é um marco significativo.

Vídeos recomendados

Emoções são importantes

Os pesquisadores há muito tempo estão interessados ​​em descobrir se as máquinas conseguem identificar emoções a partir de imagens estáticas ou vídeos. Mas foi apenas há relativamente pouco tempo que surgiram várias startups para levar esta tecnologia para o mainstream. O estudo recente testou classificadores comerciais de máquinas de reconhecimento facial desenvolvidos pela Affectiva, CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision e VisageTecnologias. Todos estes são líderes no crescente campo da computação afetiva, também conhecida como ensinar computadores a reconhecer emoções.

O teste foi realizado em 938 vídeos, incluindo demonstrações emocionais posadas e espontâneas. A chance de um palpite aleatório correto pelo algoritmo para os seis tipos de emoção seria em torno de 16%.

Damien Dupré, professor assistente da DCU Business School da Dublin City University, disse à Digital Trends que o O trabalho é importante porque chega num momento em que a tecnologia de reconhecimento de emoções está se tornando mais confiável sobre.

“À medida que os sistemas de aprendizagem automática estão a tornar-se mais fáceis de desenvolver, muitas empresas estão agora a fornecer sistemas para outras empresas: principalmente empresas de marketing e automóveis”, disse Dupré. “Considerando que [cometer] um erro no reconhecimento de emoções para pesquisas acadêmicas é, na maioria das vezes, inofensivo, os riscos são diferentes ao implantar um sistema de reconhecimento de emoções em um carro autônomo, por exemplo. Portanto, queríamos comparar os resultados de diferentes sistemas.”

Um dia poderia ser usado para detectar coisas como sonolência ou raiva no trânsito, o que poderia fazer com que um carro semiautônomo assumisse o volante.

A ideia de controlar um carro usando reconhecimento facial movido pela emoção parece, francamente, assustadora – especialmente se você é o tipo de pessoa propensa a explosões emocionais na estrada. Felizmente, não é exatamente assim que está sendo usado. Por exemplo, a empresa de reconhecimento de emoções Affectiva explorou o uso de câmeras automotivas para identificar emoções nos motoristas. Um dia poderia ser usado para detectar coisas como sonolência ou raiva no trânsito, o que poderia fazer com que um carro semiautônomo assumisse o volante se um motorista fosse considerado inapto para dirigir.

Enquanto isso, pesquisadores da Universidade do Texas em Austin desenvolveram uma tecnologia que seleciona uma lista de reprodução de música “ultrapessoal” que se adapta às mudanças de humor de cada usuário. Um artigo descrevendo o trabalho, intitulado “A música certa na hora certa: listas de reprodução personalizadas adaptáveis ​​baseadas na modelagem de sequências”, foi publicado publicado este mês na revista MIS Quarterly. Ele descreve o uso da análise emocional que prevê não apenas quais músicas atrairão os usuários com base em seu humor, mas também a melhor ordem para tocá-las.

Afetiva

Existem também outras aplicações potenciais para a tecnologia de reconhecimento de emoções. A Amazon, por exemplo, começou muito recentemente a incorporar o rastreamento emocional de vozes em seus produtos. Alexa assistente; permitindo que a IA para reconhecer quando um usuário está demonstrando frustração. Mais adiante, existe a possibilidade de que isso possa até levar a agentes artificiais totalmente responsivos às emoções, como aquele em Filme de 2013 de Spike Jonze Dela.

No recente trabalho de análise de emoções baseado em imagens, a detecção de emoções é baseada em imagens. No entanto, como mostram algumas destas ilustrações, existem outras maneiras pelas quais as máquinas podem “farejar” a emoção certa no momento certo.

“Quando as informações faciais estão indisponíveis por algum motivo, podemos analisar as entonações vocais ou observar os gestos.”

“As pessoas estão gerando muitos dados não-verbais e fisiológicos a qualquer momento”, disse George Pliev, fundador e sócio-gerente da Laboratório de Neurodados, uma das empresas cujos algoritmos foram testados para o estudo de reconhecimento facial. “Além das expressões faciais, há voz, fala, movimentos corporais, frequência cardíaca e frequência respiratória. Uma abordagem multimodal afirma que os dados comportamentais devem ser extraídos de diferentes canais e analisados ​​simultaneamente. Os dados provenientes de um canal irão verificar e equilibrar os dados recebidos dos outros. Por exemplo, quando a informação facial está indisponível por algum motivo, podemos analisar as entonações vocais ou observar os gestos.”

Desafios adiante?

No entanto, existem desafios – como todos os envolvidos concordam. As emoções nem sempre são fáceis de identificar; mesmo para as pessoas que os vivenciam.

“Se você deseja ensinar IA. como detectar carros, rostos ou emoções, você deve primeiro perguntar às pessoas como são esses objetos”, continuou Pliev. “Suas respostas representarão a verdade fundamental. Quando se trata de identificar carros ou rostos, quase 100% das pessoas questionadas seriam consistentes em suas respostas. Mas quando se trata de emoções, as coisas não são tão simples. As expressões emocionais têm muitas nuances e dependem do contexto: antecedentes culturais, diferenças individuais, situações particulares onde as emoções são expressas. Para uma pessoa, uma determinada expressão facial significaria uma coisa, enquanto outra pessoa pode considerá-la de forma diferente.”

Dupré concorda com o sentimento. “Esses sistemas podem [garantir] o reconhecimento da emoção realmente sentida por alguém?” ele disse. “A resposta é não, e nunca serão! Eles estão apenas reconhecendo a emoção que as pessoas decidem expressar – e na maioria das vezes isso não corresponde à emoção sentida. Portanto, a mensagem principal é que [as máquinas] nunca lerão… suas próprias emoções.”

Ainda assim, isso não significa que a tecnologia não será útil. Ou impedir que se torne uma grande parte de nossas vidas nos próximos anos. E mesmo Damien Dupré deixa uma pequena margem de manobra quando se trata da sua própria previsão de que as máquinas irão nunca alcançar algo: “Bem, nunca diga nunca”, observou ele.

O artigo de pesquisa, “Reconhecimento de emoções em humanos e máquinas usando expressões faciais posadas e espontâneas”, é disponível para leitura online aqui.

Recomendações dos Editores

  • A fórmula engraçada: por que o humor gerado por máquina é o Santo Graal da IA
  • Mulheres com Byte: o plano de Vivienne Ming para resolver ‘problemas humanos complicados’ com IA
  • A nova técnica selvagem de “brainsourcing” treina IA. diretamente com ondas cerebrais humanas
  • Conheça Neon, o humano artificial da Samsung (que não se parece em nada com Bixby), na CES 2020
  • O melhor piloto de drones enfrenta o robô drone no primeiro confronto humano-máquina