Maskiner blir galet bra på att känna igen mänskliga känslor

Fram till helt nyligen har vi varit tvungna att interagera med datorer på deras egna villkor. För att använda dem var människor tvungna att lära sig inmatningar utformade för att förstås av datorn: oavsett om det var att skriva kommandon eller klicka på ikoner med en mus. Men saker och ting förändras. Framväxten av A.I. röstassistenter som Siri och Alexa gör det möjligt för maskiner att förstå människor som de vanligtvis skulle interagera i den verkliga världen. Nu sträcker sig forskare efter nästa heliga gral: Datorer som kan förstå känslor.

Innehåll

  • Känslor spelar roll
  • Utmaningar framöver?

Oavsett om det är Arnold Schwarzeneggers T-1000 robot i Terminator 2 eller Data, den android karaktär i Star Trek: The Next Generation, maskiners oförmåga att förstå och korrekt svara på mänskliga känslor har länge varit en vanlig sci-fi-trop. Men forskning i verkligheten visar att maskininlärningsalgoritmer faktiskt blir imponerande bra på att känna igen de kroppsliga ledtrådar vi använder för att antyda hur vi mår inombords. Och det kan leda till en helt ny gräns för interaktioner mellan människa och maskin.

Affectiva

Missförstå oss inte: Maskiner är ännu inte lika skarpsinniga som din genomsnittliga människa när det gäller att känna igen de olika sätten vi uttrycker känslor på. Men de blir mycket bättre. I ett nyligen genomfört test utfört av forskare vid Dublin City University, University College London, University of Bremen och Queen's University Belfast, en kombination av människor och algoritmer ombads att känna igen ett urval av känslor genom att titta på mänsklig ansiktsbehandling uttryck.

Relaterad

  • Känslokännande A.I. är här, och det kan vara i din nästa anställningsintervju
  • Forskare använder A.I. att skapa artificiell mänsklig genetisk kod
  • Jag träffade Samsungs konstgjorda människor och de visade mig framtiden för A.I.

Känslorna inkluderade lycka, sorg, ilska, överraskning, rädsla och avsky. Medan människor fortfarande presterade bättre än maskiner totalt sett (med en noggrannhet på 73 % i genomsnitt, jämfört med 49 % till 62 % beroende på algoritmen) visade poängen som samlats upp av de olika testade robotarna hur långt de har kommit i detta betrakta. Mest imponerande var att lycka och sorg var två känslor där maskiner kan överträffa människor när det gäller att gissa, helt enkelt genom att titta på ansikten. Det är en viktig milstolpe.

Rekommenderade videor

Känslor spelar roll

Forskare har länge varit intresserade av att ta reda på om maskiner kan identifiera känslor från stillbilder eller videofilmer. Men det är först relativt nyligen som ett antal startups har vuxit fram ta denna teknik mainstream. Den senaste studien testade kommersiella ansiktsigenkänningsmaskiner utvecklade av Affectiva, CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision och VisageTechnologies. Alla dessa är ledare inom det växande området för affektiv datoranvändning, a.k.a. lära datorer att känna igen känslor.

Testet utfördes på 938 videor, inklusive både poserade och spontana känslomässiga uppvisningar. Chansen för en korrekt slumpmässig gissning av algoritmen för de sex känslotyperna skulle vara cirka 16 %.

Damien Dupré, en biträdande professor vid Dublin City Universitys DCU Business School, berättade för Digital Trends att arbete är viktigt eftersom det kommer vid en tidpunkt då känsloigenkänningstekniken blir mer tillförlitlig på.

"Eftersom system för maskininlärning blir lättare att utveckla, tillhandahåller många företag nu system för andra företag: främst marknadsförings- och fordonsföretag," sa Dupré. "Medan [att göra] ett misstag i att känna igen känslor för akademisk forskning är, för det mesta, ofarliga, insatserna är annorlunda när man implanterar ett känsloidentifieringssystem i en självkörande bil, för exempel. Därför ville vi jämföra resultaten av olika system.”

Den skulle en dag kunna användas för att upptäcka saker som dåsighet eller vägraseri, vilket kan utlösa en semi-autonom bil som tar ratten.

Idén att styra en bil med hjälp av känslostyrd ansiktsigenkänning låter, ärligt talat, skrämmande - speciellt om du är den typen av person som är benägen att få känslomässiga utbrott på vägen. Lyckligtvis är det inte exakt hur det används. Till exempel har känsloigenkänningsföretaget Affectiva undersökt användningen av bilkameror för att identifiera känslor hos förare. Den kan en dag användas för att upptäcka saker som dåsighet eller vägraseri, vilket kan utlösa en semi-autonom bil som tar ratten om en förare bedöms vara olämplig att köra.

Forskare vid University of Texas i Austin har under tiden utvecklat teknik som sammanställer en "ultrapersonlig" musikspellista som anpassar sig till varje användares föränderliga humör. En artikel som beskrev verket, med titeln "Rätt musik vid rätt tidpunkt: adaptiva personliga spellistor baserade på sekvensmodellering", var publiceras denna månad i tidskriften MIS Quarterly. Den beskriver hur man använder känsloanalys som förutsäger inte bara vilka låtar som kommer att tilltala användarna baserat på deras humör, utan även den bästa ordningen för att spela dem.

Affectiva

Det finns andra potentiella applikationer för emotionsigenkänningsteknik också. Amazon, till exempel, har helt nyligen börjat införliva känslospårning av röster för sina Alexa assistent; tillåter A.I. till känna igen när en användare visar frustration. Längre ner i linjen finns möjligheten att detta till och med kan leda till fulländade känslomässigt känsliga artificiella medel, som det i Spike Jonzes film från 2013 Henne.

I det senaste bildbaserade känsloanalysarbetet bygger känsloavkänning på bilder. Men som vissa av dessa illustrationer visar finns det andra sätt som maskiner kan "snuffa upp" på rätt känsla vid rätt tidpunkt.

"När ansiktsinformation av någon anledning inte är tillgänglig kan vi analysera röstintonationerna eller titta på gesterna."

"Människor genererar mycket icke-verbala och fysiologiska data vid varje givet tillfälle", säger George Pliev, grundare och managing partner på Neurodata Lab, ett av företagen vars algoritmer testades för ansiktsigenkänningsstudien. ”Förutom ansiktsuttrycken finns röst, tal, kroppsrörelser, hjärtfrekvens och andningsfrekvens. Ett multimodalt synsätt säger att beteendedata ska extraheras från olika kanaler och analyseras samtidigt. Data som kommer från en kanal kommer att verifiera och balansera data som tas emot från de andra. Till exempel, när ansiktsinformation av någon anledning inte är tillgänglig, kan vi analysera röstintonationerna eller titta på gesterna."

Utmaningar framöver?

Det finns dock utmaningar – vilket alla inblandade är överens om. Känslor är inte alltid lätta att identifiera; även för de människor som upplever dem.

"Om du vill lära A.I. hur man upptäcker bilar, ansikten eller känslor, bör du först fråga folk hur dessa föremål ser ut”, fortsatte Pliev. "Deras svar kommer att representera grundsanningen. När det gäller att identifiera bilar eller ansikten skulle nästan 100 % av de tillfrågade vara konsekventa i sina svar. Men när det kommer till känslor är det inte så enkelt. Emotionella uttryck har många nyanser och beror på sammanhang: kulturell bakgrund, individuella skillnader, de speciella situationer där känslor uttrycks. För en person skulle ett speciellt ansiktsuttryck betyda en sak, medan en annan person kan tänka sig det annorlunda."

Dupré håller med om känslan. "Kan dessa system [garanteras] känna igen den känsla som någon faktiskt känner?" han sa. "Svaret är inte alls, och det kommer de aldrig att bli! De känner bara igen den känsla som människor bestämmer sig för att uttrycka - och för det mesta motsvarar det inte den känsla som de känner. Så take-away-meddelandet är att [maskiner] aldrig kommer att läsa... dina egna känslor."

Ändå betyder det inte att tekniken inte kommer att vara användbar. Eller stoppa det från att bli en stor del av våra liv under de kommande åren. Och även Damien Dupré lämnar ett litet rörelseutrymme när det kommer till sin egen förutsägelse att maskiner kommer aldrig uppnå något: "Tja, säg aldrig aldrig," noterade han.

Forskningsuppsatsen, "Känsloigenkänning hos människor och maskiner med hjälp av poserade och spontana ansiktsuttryck," är finns att läsa online här.

Redaktörens rekommendationer

  • Den roliga formeln: Varför maskingenererad humor är A.I.s heliga gral.
  • Kvinnor med byte: Vivienne Mings plan för att lösa "stökiga mänskliga problem" med A.I.
  • Vild ny "brainsourcing"-teknik tränar A.I. direkt med mänskliga hjärnvågor
  • Möt Neon, Samsungs konstgjorda människa (som inte är som Bixby), på CES 2020
  • Bästa drönarföraren tar sig an robotdrönaren i den första sammandrabbningen mellan människa och maskin