Machines worden bizar goed in het herkennen van menselijke emoties

Tot voor kort moesten we op hun eigen voorwaarden met computers omgaan. Om ze te kunnen gebruiken, moesten mensen invoer leren die ontworpen was om door de computer te worden begrepen: of het nu ging om het typen van opdrachten of het klikken op pictogrammen met een muis. Maar de dingen veranderen. De opkomst van A.I. Stemassistenten zoals Siri en Alexa maken het voor machines mogelijk om mensen te begrijpen zoals ze normaal gesproken in de echte wereld zouden communiceren. Nu reiken onderzoekers naar de volgende Heilige Graal: computers die emoties kunnen begrijpen.

Inhoud

  • Emoties zijn belangrijk
  • Uitdagingen die komen?

Of het nu de T-1000-robot van Arnold Schwarzenegger is Terminator 2 of Gegevens, de androïde karakter erin Star Trek: de volgende generatieHet onvermogen van machines om menselijke emoties te begrijpen en er op de juiste manier op te reageren, is lange tijd een veelvoorkomend sciencefictionverhaal geweest. Uit onderzoek uit de echte wereld blijkt echter dat machine learning-algoritmen feitelijk indrukwekkend goed worden in het herkennen van de lichamelijke signalen die we gebruiken om aan te geven hoe we ons vanbinnen voelen. En het zou kunnen leiden tot een geheel nieuwe grens van mens-machine-interacties.

Affectiva

Begrijp ons niet verkeerd: machines zijn nog niet zo slim als de gemiddelde mens als het gaat om het herkennen van de verschillende manieren waarop we emoties uiten. Maar ze worden een stuk beter. In een recente test uitgevoerd door onderzoekers van Dublin City University, University College London, de Universiteit van Bremen en Queen’s Universiteit Belfast werd een combinatie van mensen en algoritmen gevraagd om een ​​assortiment emoties te herkennen door naar het menselijk gezicht te kijken uitdrukkingen.

Verwant

  • Emotiegevoelige A.I. is hier, en het zou in je volgende sollicitatiegesprek kunnen zijn
  • Wetenschappers gebruiken A.I. om kunstmatige menselijke genetische code te creëren
  • Ik ontmoette de kunstmatige mensen van Samsung en zij lieten me de toekomst van AI zien.

De emoties omvatten geluk, verdriet, woede, verrassing, angst en walging. Terwijl mensen in het algemeen nog steeds beter presteerden dan machines (met een nauwkeurigheid van gemiddeld 73%, vergeleken met 49% tot 62% afhankelijk van het algoritme) lieten de scores van de verschillende geteste bots zien hoe ver ze hierin zijn gekomen groet. Het meest indrukwekkend was dat geluk en verdriet twee emoties waren waarbij machines beter kunnen raden dan mensen, simpelweg door naar gezichten te kijken. Dat is een belangrijke mijlpaal.

Aanbevolen video's

Emoties zijn belangrijk

Onderzoekers zijn al lang geïnteresseerd in de vraag of machines emoties kunnen identificeren uit stilstaande beelden of videobeelden. Maar het is pas relatief recent dat er een aantal startups zijn ontstaan Neem deze technologie mainstream. In het recente onderzoek werden commerciële classificatiesystemen voor gezichtsherkenningsmachines getest, ontwikkeld door Affectiva. CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision en VisageTechnologieën. Dit zijn allemaal leiders op het groeiende gebied van affective computing, oftewel het leren van computers om emoties te herkennen.

De test werd uitgevoerd op 938 video's, waaronder zowel geposeerde als spontane emotionele uitingen. De kans op een juiste willekeurige gok door het algoritme voor de zes emotietypen zou ongeveer 16% zijn.

Damien Dupré, een assistent-professor aan de DCU Business School van Dublin City University, vertelde Digital Trends dat de werk is belangrijk omdat het komt in een tijd waarin technologie voor emotieherkenning steeds betrouwbaarder wordt bij.

“Omdat machine learning-systemen steeds gemakkelijker te ontwikkelen zijn, leveren veel bedrijven nu systemen voor andere bedrijven: voornamelijk marketing- en automobielbedrijven”, aldus Dupré. “Terwijl het maken van een fout bij het herkennen van emoties voor academisch onderzoek meestal onschadelijk, de inzet is anders bij het implanteren van een emotieherkenningssysteem in een zelfrijdende auto voorbeeld. Daarom wilden we de resultaten van verschillende systemen vergelijken.”

Het zou op een dag kunnen worden gebruikt om zaken als slaperigheid of woede op de weg op te sporen, waardoor een semi-autonome auto het stuur overneemt.

Het idee om een ​​auto te besturen met behulp van emotiegestuurde gezichtsherkenning klinkt eerlijk gezegd angstaanjagend, vooral als je het soort persoon bent dat vatbaar is voor emotionele uitbarstingen onderweg. Gelukkig is dat niet precies hoe het wordt gebruikt. Het emotieherkenningsbedrijf Affectiva heeft bijvoorbeeld het gebruik van camera's in de auto onderzocht emotie bij bestuurders identificeren. Het zou op een dag kunnen worden gebruikt om zaken als slaperigheid of woede op de weg op te sporen, waardoor een semi-autonome auto het stuur overneemt als een bestuurder ongeschikt wordt geacht om te rijden.

Onderzoekers van de Universiteit van Texas in Austin hebben ondertussen technologie ontwikkeld die een ‘ultrapersoonlijke’ muziekafspeellijst samenstelt die zich aanpast aan de veranderende stemmingen van elke gebruiker. Er verscheen een paper waarin het werk werd beschreven, getiteld ‘The Right Music at the Right Time: Adaptive Personalised Playlists Based on Sequence Modeling’. deze maand gepubliceerd in het tijdschrift MIS Quarterly. Het beschrijft het gebruik van emotieanalyse die niet alleen voorspelt welke nummers gebruikers zullen aanspreken op basis van hun humeur, maar ook de beste volgorde waarin ze kunnen worden afgespeeld.

Affectiva

Er zijn ook andere potentiële toepassingen voor technologie voor emotieherkenning. Amazon is bijvoorbeeld onlangs begonnen met het opnemen van het volgen van emoties in zijn programma Alexa assistent; waardoor de A.I. naar herkennen wanneer een gebruiker frustratie toont. Verderop in de rij bestaat de mogelijkheid dat dit zelfs zou kunnen leiden tot volledig emotioneel reagerende kunstmatige middelen, zoals die in Spike Jonze’s film uit 2013 Haar.

In het recente beeldgebaseerde emotieanalysewerk is het waarnemen van emoties gebaseerd op beelden. Zoals sommige van deze illustraties laten zien, zijn er echter andere manieren waarop machines de juiste emotie op het juiste moment kunnen ‘opsnuiven’.

“Als gezichtsinformatie om de een of andere reden niet beschikbaar is, kunnen we de stemintonaties analyseren of naar de gebaren kijken.”

“Mensen genereren op elk moment veel non-verbale en fysiologische gegevens”, zegt George Pliev, oprichter en managing partner bij Neurodata Lab, een van de bedrijven waarvan de algoritmen werden getest voor het gezichtsherkenningsonderzoek. “Naast de gezichtsuitdrukkingen zijn er stem, spraak, lichaamsbewegingen, hartslag en ademhalingsfrequentie. Een multimodale benadering stelt dat gedragsgegevens uit verschillende kanalen moeten worden gehaald en tegelijkertijd moeten worden geanalyseerd. De gegevens die van het ene kanaal komen, verifiëren en balanceren de gegevens die van de andere worden ontvangen. Als gezichtsinformatie om wat voor reden dan ook niet beschikbaar is, kunnen we bijvoorbeeld de stemintonaties analyseren of naar de gebaren kijken.”

Uitdagingen die komen?

Er zijn echter uitdagingen, zoals alle betrokkenen het erover eens zijn. Emoties zijn niet altijd gemakkelijk te identificeren; zelfs voor de mensen die ze ervaren.

“Als je A.I. Hoe je auto’s, gezichten of emoties kunt detecteren, moet je eerst aan mensen vragen hoe deze objecten eruitzien”, vervolgde Pliev. “Hun antwoorden zullen de grondwaarheid vertegenwoordigen. Als het gaat om het identificeren van auto's of gezichten, zou bijna 100% van de ondervraagde mensen consistent zijn in hun antwoorden. Maar als het om emoties gaat, liggen de zaken niet zo eenvoudig. Emotionele uitingen hebben veel nuances en zijn afhankelijk van de context: culturele achtergrond, individuele verschillen, de specifieke situaties waarin emoties worden uitgedrukt. Voor de één zou een bepaalde gezichtsuitdrukking het ene betekenen, terwijl een ander er misschien anders over denkt.”

Dupré is het met het sentiment eens. “Kunnen deze systemen [gegarandeerd] de emotie herkennen die daadwerkelijk door iemand wordt gevoeld?” hij zei. “Het antwoord is helemaal niet, en dat zal ook nooit zo zijn! Ze herkennen alleen de emotie die mensen besluiten te uiten – en meestal komt dat niet overeen met de gevoelde emotie. De boodschap is dus dat [machines] nooit … je eigen emotie zullen lezen.”

Dat betekent echter niet dat de technologie niet nuttig zal zijn. Of zorg ervoor dat het de komende jaren geen groot deel van ons leven gaat uitmaken. En zelfs Damien Dupré laat enige speelruimte als het gaat om zijn eigen voorspelling dat machines dat wel zullen doen nooit iets bereiken: ‘Zeg nooit nooit’, merkte hij op.

Het onderzoeksartikel ‘Emotieherkenning bij mens en machine met behulp van geposeerde en spontane gezichtsuitdrukking’ is dat wel hier online te lezen.

Aanbevelingen van de redactie

  • De grappige formule: waarom door machines gegenereerde humor de heilige graal is van A.I.
  • Women with Byte: Vivienne Ming’s plan om ‘rommelige menselijke problemen’ op te lossen met A.I.
  • Een wilde nieuwe ‘brainsourcing’-techniek traint A.I. direct met menselijke hersengolven
  • Maak kennis met Neon, de kunstmatige mens van Samsung (die in niets op Bixby lijkt), op CES 2020
  • Top drone-racer neemt het op tegen robot-drone in de eerste mens-machine-clash