Les machines deviennent incroyablement douées pour reconnaître les émotions humaines

Jusqu’à très récemment, nous devions interagir avec les ordinateurs selon leurs propres conditions. Pour les utiliser, les humains ont dû apprendre des entrées conçues pour être comprises par l'ordinateur: qu'il s'agisse de taper des commandes ou de cliquer sur des icônes à l'aide d'une souris. Mais les choses changent. L’essor de l’A.I. Les assistants vocaux comme Siri et Alexa permettent aux machines de comprendre les humains comme ils interagiraient normalement dans le monde réel. Les chercheurs recherchent désormais le prochain Saint Graal: des ordinateurs capables de comprendre les émotions.

Contenu

  • Les émotions comptent
  • Défis à venir?

Qu’il s’agisse du robot T-1000 d’Arnold Schwarzenegger dans Terminateur 2 ou des données, le Android personnage dans Star Trek: La prochaine génération, l’incapacité des machines à comprendre et à répondre correctement aux émotions humaines est depuis longtemps un thème courant de la science-fiction. Cependant, des recherches concrètes montrent que les algorithmes d’apprentissage automatique deviennent incroyablement efficaces dans la reconnaissance des signaux corporels que nous utilisons pour indiquer ce que nous ressentons à l’intérieur. Et cela pourrait conduire à une toute nouvelle frontière dans les interactions homme-machine.

Affectif

Ne vous méprenez pas: les machines ne sont pas encore aussi astucieuses que l’humain moyen lorsqu’il s’agit de reconnaître les différentes façons dont nous exprimons nos émotions. Mais ils s’améliorent beaucoup. Dans un test récent réalisé par des chercheurs de la Dublin City University, de l’University College London, de l’Université de Brême et de Queen’s À l'Université de Belfast, il a été demandé à une combinaison de personnes et d'algorithmes de reconnaître un assortiment d'émotions en regardant le visage humain. expressions.

En rapport

  • L'IA qui détecte les émotions est là, et cela pourrait être lors de votre prochain entretien d'embauche
  • Les scientifiques utilisent l’IA. créer un code génétique humain artificiel
  • J’ai rencontré les humains artificiels de Samsung et ils m’ont montré l’avenir de l’IA.

Les émotions comprenaient le bonheur, la tristesse, la colère, la surprise, la peur et le dégoût. Si les humains surperforment toujours globalement les machines (avec une précision de 73 % en moyenne, contre 49 % à 62 % selon l'algorithme), les scores accumulés par les différents robots testés montrent le chemin parcouru dans ce domaine égard. Le plus impressionnant est que le bonheur et la tristesse sont deux émotions pour lesquelles les machines peuvent surpasser les humains en matière de devinettes, simplement en regardant les visages. C’est une étape importante.

Vidéos recommandées

Les émotions comptent

Les chercheurs souhaitent depuis longtemps savoir si les machines peuvent identifier les émotions à partir d’images fixes ou de séquences vidéo. Mais ce n’est que relativement récemment qu’un certain nombre de startups ont vu le jour. intégrer cette technologie au grand public. L'étude récente a testé les classificateurs commerciaux de machines de reconnaissance faciale développés par Affectiva, CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision et VisageTechnologies. Tous ces éléments sont des leaders dans le domaine en pleine croissance de l’informatique affective, c’est-à-dire apprendre aux ordinateurs à reconnaître les émotions.

Le test a été réalisé sur 938 vidéos, incluant des manifestations émotionnelles posées et spontanées. La chance que l’algorithme obtienne une estimation aléatoire correcte pour les six types d’émotions serait d’environ 16 %.

Damien Dupré, professeur adjoint à la DCU Business School de la Dublin City University, a déclaré à Digital Trends que le le travail est important car il arrive à un moment où la technologie de reconnaissance des émotions est de plus en plus fiable sur.

"Les systèmes d'apprentissage automatique étant de plus en plus faciles à développer, de nombreuses entreprises fournissent désormais des systèmes à d'autres entreprises: principalement des entreprises de marketing et d'automobile", a déclaré Dupré. « Alors que [faire] une erreur dans la reconnaissance des émotions pour la recherche universitaire est, la plupart du temps, inoffensif, les enjeux sont différents lorsqu’il s’agit d’implanter un système de reconnaissance des émotions dans une voiture autonome, par exemple exemple. Nous voulions donc comparer les résultats de différents systèmes.

Il pourrait un jour être utilisé pour détecter des phénomènes tels que la somnolence ou la rage au volant, qui pourraient déclencher la prise de volant d'une voiture semi-autonome.

L’idée de contrôler une voiture à l’aide de la reconnaissance faciale basée sur les émotions semble franchement terrifiante, surtout si vous êtes le genre de personne sujette aux explosions émotionnelles sur la route. Heureusement, ce n’est pas exactement ainsi qu’il est utilisé. Par exemple, la société de reconnaissance des émotions Affectiva a exploré l'utilisation de caméras embarquées pour identifier les émotions chez les conducteurs. Il pourrait un jour être utilisé pour détecter des phénomènes tels que la somnolence ou la rage au volant, qui pourraient déclencher la prise de volant d'une voiture semi-autonome si un conducteur est jugé inapte à conduire.

Des chercheurs de l’Université du Texas à Austin ont quant à eux développé une technologie permettant de créer une liste de lecture musicale « ultra-personnelle » qui s’adapte aux humeurs changeantes de chaque utilisateur. Un article décrivant le travail, intitulé « La bonne musique au bon moment: des listes de lecture personnalisées adaptatives basées sur la modélisation de séquence » a été publié. publié ce mois-ci dans la revue MIS Quarterly. Il décrit l'utilisation d'une analyse des émotions qui prédit non seulement quelles chansons plairont aux utilisateurs en fonction de leur humeur, mais également le meilleur ordre dans lequel les jouer.

Affectif

Il existe également d’autres applications potentielles pour la technologie de reconnaissance des émotions. Amazon, par exemple, a très récemment commencé à intégrer le suivi des émotions des voix pour ses applications. Alexa assistant; permettant à l'A.I. à reconnaître quand un utilisateur montre de la frustration. Plus tard, il est possible que cela puisse même conduire à des agents artificiels pleinement réactifs sur le plan émotionnel, comme celui de Le film de Spike Jonze en 2013 Son.

Dans les récents travaux d’analyse des émotions basés sur l’image, la détection des émotions est basée sur des images. Cependant, comme le montrent certaines de ces illustrations, il existe d’autres moyens par lesquels les machines peuvent « détecter » la bonne émotion au bon moment.

"Lorsque les informations faciales ne sont pas disponibles pour une raison quelconque, nous pouvons analyser les intonations vocales ou examiner les gestes."

"Les gens génèrent à tout moment de nombreuses données non verbales et physiologiques", a déclaré George Pliev, fondateur et associé directeur de Laboratoire de neurodonnées, l'une des sociétés dont les algorithmes ont été testés pour l'étude sur la reconnaissance faciale. « Outre les expressions faciales, il y a la voix, la parole, les mouvements du corps, la fréquence cardiaque et la fréquence respiratoire. Une approche multimodale stipule que les données comportementales doivent être extraites de différents canaux et analysées simultanément. Les données provenant d'un canal vérifieront et équilibreront les données reçues des autres canaux. Par exemple, lorsque les informations faciales ne sont pas disponibles pour une raison quelconque, nous pouvons analyser les intonations vocales ou observer les gestes.

Défis à venir?

Il existe cependant des défis à relever – comme toutes les personnes impliquées en conviennent. Les émotions ne sont pas toujours faciles à identifier; même pour les personnes qui les vivent.

« Si vous souhaitez enseigner l’IA. Comment détecter des voitures, des visages ou des émotions, vous devez d'abord demander aux gens à quoi ressemblent ces objets », a poursuivi Pliev. « Leurs réponses représenteront la vérité sur le terrain. Lorsqu’il s’agit d’identifier des voitures ou des visages, près de 100 % des personnes interrogées seraient cohérentes dans leurs réponses. Mais quand il s’agit d’émotions, les choses ne sont pas si simples. Les expressions émotionnelles comportent de nombreuses nuances et dépendent du contexte: contexte culturel, différences individuelles, situations particulières dans lesquelles les émotions s'expriment. Pour une personne, une expression faciale particulière signifierait une chose, tandis qu’une autre pourrait la considérer différemment.

Dupré est d’accord avec ce sentiment. « Ces systèmes peuvent-ils [être garantis] pour reconnaître l'émotion réellement ressentie par quelqu'un? il a dit. « La réponse est non du tout, et ils ne le seront jamais! Ils ne font que reconnaître l’émotion que les gens décident d’exprimer – et la plupart du temps cela ne correspond pas à l’émotion ressentie. Le message à retenir est donc que [les machines] ne liront jamais… votre propre émotion. »

Cela ne veut pas dire pour autant que la technologie ne sera pas utile. Ou empêcher que cela devienne une partie importante de nos vies dans les années à venir. Et même Damien Dupré laisse une légère marge de manœuvre lorsqu'il s'agit de sa propre prédiction selon laquelle les machines jamais parvenir à quelque chose: « Eh bien, ne dites jamais jamais », a-t-il noté.

Le document de recherche intitulé « Reconnaissance des émotions chez les humains et les machines à l'aide d'expressions faciales posées et spontanées » est disponible à lire en ligne ici.

Recommandations des rédacteurs

  • La formule amusante: pourquoi l'humour généré par la machine est le Saint Graal de l'IA.
  • Women with Byte: le plan de Vivienne Ming pour résoudre les « problèmes humains compliqués » grâce à l’IA
  • Une nouvelle technique sauvage de « brainsourcing » entraîne l’IA directement avec les ondes cérébrales humaines
  • Rencontrez Neon, l'humain artificiel de Samsung (qui n'a rien à voir avec Bixby), au CES 2020
  • Le meilleur pilote de drone affronte un drone robot lors du premier affrontement homme-machine