Hasta hace muy poco hemos tenido que interactuar con las computadoras en sus propios términos. Para usarlos, los humanos tuvieron que aprender entradas diseñadas para ser entendidas por la computadora: ya sea escribiendo comandos o haciendo clic en íconos con el mouse. Pero las cosas están cambiando. El auge de la IA Los asistentes de voz como Siri y Alexa hacen posible que las máquinas comprendan a los humanos como lo harían normalmente en el mundo real. Ahora los investigadores buscan el próximo Santo Grial: computadoras que puedan comprender las emociones.
Contenido
- Las emociones importan
- ¿Desafíos adelante?
Ya sea el robot T-1000 de Arnold Schwarzenegger en Terminador 2 o Datos, el androide personaje en Star Trek: la próxima generación, la incapacidad de las máquinas para comprender y responder adecuadamente a las emociones humanas ha sido durante mucho tiempo un tropo común en la ciencia ficción. Sin embargo, la investigación del mundo real muestra que los algoritmos de aprendizaje automático se están volviendo increíblemente buenos a la hora de reconocer las señales corporales que utilizamos para dar pistas de cómo nos sentimos por dentro. Y podría conducir a una frontera completamente nueva de interacciones entre humanos y máquinas.
No nos malinterpretes: las máquinas aún no son tan astutas como el ser humano promedio cuando se trata de reconocer las diversas formas en que expresamos las emociones. Pero están mejorando mucho. En una prueba reciente realizada por investigadores de la Universidad de la Ciudad de Dublín, el University College London, la Universidad de Bremen y el Queen's Universidad de Belfast, se pidió a una combinación de personas y algoritmos que reconocieran una variedad de emociones observando el rostro humano. expresiones.
Relacionado
- IA con detección de emociones está aquí, y podría estar en tu próxima entrevista de trabajo
- Los científicos están utilizando A.I. crear un código genético humano artificial
- Conocí a los humanos artificiales de Samsung y me mostraron el futuro de la IA.
Las emociones incluían felicidad, tristeza, ira, sorpresa, miedo y disgusto. Si bien los humanos aún superaron a las máquinas en general (con una precisión del 73% en promedio, en comparación con el 49% al 62% dependiendo del algoritmo), las puntuaciones obtenidas por los distintos robots probados mostraron hasta dónde han llegado en este respecto. Lo más impresionante es que la felicidad y la tristeza eran dos emociones en las que las máquinas pueden superar a los humanos a la hora de adivinar, simplemente mirando las caras. Ese es un hito importante.
Vídeos recomendados
Las emociones importan
Los investigadores llevan mucho tiempo interesados en descubrir si las máquinas pueden identificar emociones a partir de imágenes fijas o secuencias de vídeo. Pero sólo hace relativamente poco tiempo que han surgido varias empresas emergentes. llevar esta tecnología a la corriente principal. El estudio reciente probó clasificadores de máquinas de reconocimiento facial comerciales desarrollados por Affectiva, CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision y Tecnologías Visage. Todos ellos son líderes en el creciente campo de la informática afectiva, también conocido como enseñar a las computadoras a reconocer emociones.
La prueba se llevó a cabo con 938 vídeos, incluyendo manifestaciones emocionales tanto posadas como espontáneas. La probabilidad de que el algoritmo acierte al azar para los seis tipos de emociones sería de alrededor del 16%.
Damien Dupre, profesor asistente en la Escuela de Negocios DCU de la Universidad de la Ciudad de Dublín, dijo a Digital Trends que el El trabajo es importante porque llega en un momento en el que la tecnología de reconocimiento de emociones se está volviendo más confiable. al.
"Dado que los sistemas de aprendizaje automático son cada vez más fáciles de desarrollar, muchas empresas ahora están proporcionando sistemas para otras empresas: principalmente empresas de marketing y automotrices", dijo Dupré. “Mientras que [cometer] un error en el reconocimiento de emociones para la investigación académica es, la mayoría de las veces, inofensivo, lo que está en juego es diferente cuando se implanta un sistema de reconocimiento de emociones en un automóvil autónomo, por ejemplo ejemplo. Por lo tanto, queríamos comparar los resultados de diferentes sistemas”.
Algún día podría usarse para detectar cosas como somnolencia o furia al volante, que podrían hacer que un automóvil semiautónomo tomara el volante.
La idea de controlar un automóvil mediante el reconocimiento facial basado en emociones suena, francamente, aterradora, especialmente si eres el tipo de persona propensa a tener arrebatos emocionales en la carretera. Afortunadamente, no es exactamente así como se usa. Por ejemplo, la empresa de reconocimiento de emociones Affectiva ha explorado el uso de cámaras en los automóviles para identificar emociones en los conductores. Algún día podría usarse para detectar cosas como somnolencia o furia al volante, lo que podría hacer que un automóvil semiautónomo tome el volante si se considera que un conductor no es apto para conducir.
Mientras tanto, investigadores de la Universidad de Texas en Austin han desarrollado una tecnología que selecciona una lista de reproducción de música “ultrapersonal” que se adapta a los cambios de humor de cada usuario. Se publicó un artículo que describe el trabajo, titulado “La música adecuada en el momento adecuado: listas de reproducción personalizadas adaptativas basadas en modelos de secuencia”. publicado este mes en la revista MIS Quarterly. Describe el uso de análisis de emociones que predice no sólo qué canciones atraerán a los usuarios en función de su estado de ánimo, sino también el mejor orden para reproducirlas.
También existen otras aplicaciones potenciales para la tecnología de reconocimiento de emociones. Amazon, por ejemplo, ha comenzado muy recientemente a incorporar el seguimiento de las emociones de las voces para sus alexa asistente; permitiendo que la A.I. a reconocer cuando un usuario muestra frustración. Más adelante, existe la posibilidad de que esto incluso pueda conducir a agentes artificiales con plena capacidad de respuesta emocional, como el de La película de Spike Jonze de 2013 Su.
En el reciente trabajo de análisis de emociones basado en imágenes, la detección de emociones se basa en imágenes. Sin embargo, como muestran algunas de estas ilustraciones, hay otras formas en que las máquinas pueden “olfatear” la emoción adecuada en el momento adecuado.
"Cuando por alguna razón la información facial no está disponible, podemos analizar las entonaciones vocales o observar los gestos".
"La gente genera una gran cantidad de datos fisiológicos y no verbales en un momento dado", afirmó George Pliev, fundador y socio director de Laboratorio de Neurodatos, una de las empresas cuyos algoritmos se probaron para el estudio de reconocimiento facial. “Aparte de las expresiones faciales, están la voz, el habla, los movimientos corporales, el ritmo cardíaco y la frecuencia respiratoria. Un enfoque multimodal establece que los datos de comportamiento deben extraerse de diferentes canales y analizarse simultáneamente. Los datos provenientes de un canal verificarán y equilibrarán los datos recibidos de los otros. Por ejemplo, cuando por algún motivo la información facial no está disponible, podemos analizar las entonaciones vocales o observar los gestos”.
¿Desafíos adelante?
Sin embargo, existen desafíos, como coinciden todos los involucrados. Las emociones no siempre son fáciles de identificar; incluso para las personas que los experimentan.
“Si deseas enseñar A.I. Para detectar coches, caras o emociones, primero hay que preguntar a la gente cómo son esos objetos”, continuó Pliev. “Sus respuestas representarán la verdad fundamental. Cuando se trata de identificar coches o caras, casi el 100% de las personas preguntadas serían coherentes en sus respuestas. Pero cuando se trata de emociones, las cosas no son tan sencillas. Las expresiones emocionales tienen muchos matices y dependen del contexto: antecedentes culturales, diferencias individuales, situaciones particulares donde se expresan las emociones. Para una persona, una expresión facial particular significaría una cosa, mientras que otra persona puede considerarla de manera diferente”.
Dupré está de acuerdo con ese sentimiento. "¿Se puede garantizar que estos sistemas reconozcan la emoción que realmente siente alguien?" él dijo. “¡La respuesta es en absoluto, y nunca lo serán! Solo reconocen la emoción que las personas deciden expresar, y la mayoría de las veces eso no corresponde a la emoción sentida. Así que el mensaje que debemos llevarnos es que [las máquinas] nunca leerán... tus propias emociones”.
Aún así, eso no significa que la tecnología no vaya a ser útil. O evitar que se convierta en una parte importante de nuestras vidas en los años venideros. E incluso Damien Dupré deja un ligero margen de maniobra cuando se trata de su propia predicción de que las máquinas nunca lograr algo: “Bueno, nunca digas nunca”, anotó.
El trabajo de investigación, "Reconocimiento de emociones en humanos y máquinas mediante expresiones faciales espontáneas y posadas", es disponible para leer en línea aquí.
Recomendaciones de los editores
- La fórmula divertida: por qué el humor generado por máquinas es el santo grial de la IA
- Mujeres con Byte: el plan de Vivienne Ming para resolver “problemas humanos complicados” con A.I.
- Una nueva y salvaje técnica de 'brainsourcing' entrena a la IA directamente con ondas cerebrales humanas
- Conoce a Neon, el humano artificial de Samsung (que no se parece en nada a Bixby), en CES 2020
- El mejor corredor de drones se enfrenta a un robot drone en el primer enfrentamiento entre humanos y máquinas