Inntil helt nylig har vi måttet samhandle med datamaskiner på deres egne premisser. For å bruke dem, måtte mennesker lære input designet for å bli forstått av datamaskinen: enten det var å skrive kommandoer eller klikke på ikoner med en mus. Men ting er i endring. Fremveksten av A.I. stemmeassistenter som Siri og Alexa gjør det mulig for maskiner å forstå mennesker slik de vanligvis vil samhandle i den virkelige verden. Nå strekker forskere seg etter den neste hellige gral: Datamaskiner som kan forstå følelser.
Innhold
- Følelser betyr noe
- Utfordringer fremover?
Enten det er Arnold Schwarzeneggers T-1000-robot i Terminator 2 eller Data, den android tegn i Star Trek: The Next Generation, har maskinenes manglende evne til å forstå og reagere riktig på menneskelige følelser lenge vært en vanlig sci-fi-trope. Forskning fra den virkelige verden viser imidlertid at maskinlæringsalgoritmer faktisk blir imponerende gode til å gjenkjenne de kroppslige signalene vi bruker for å antyde hvordan vi har det inni oss. Og det kan føre til en helt ny grense for menneske-maskin-interaksjoner.
Ikke misforstå oss: Maskiner er ennå ikke like kloke som det gjennomsnittlige mennesket når det gjelder å gjenkjenne de ulike måtene vi uttrykker følelser på. Men de blir mye bedre. I en nylig test utført av forskere ved Dublin City University, University College London, University of Bremen og Queen's University Belfast, en kombinasjon av mennesker og algoritmer ble bedt om å gjenkjenne et utvalg av følelser ved å se på menneskelig ansiktsbehandling uttrykkene.
I slekt
- Følelsesfølende A.I. er her, og det kan være i ditt neste jobbintervju
- Forskere bruker A.I. å lage kunstig menneskelig genetisk kode
- Jeg møtte Samsungs kunstige mennesker, og de viste meg fremtiden til A.I.
Følelsene inkluderte lykke, tristhet, sinne, overraskelse, frykt og avsky. Mens mennesker fortsatt utkonkurrerte maskiner totalt sett (med en nøyaktighet på 73 % i gjennomsnitt, sammenlignet med 49 % til 62 % avhengig av algoritmen), viste poengsummene samlet av de forskjellige robotene som ble testet hvor langt de har kommet i dette hensyn. Mest imponerende var lykke og tristhet to følelser som maskiner kan overgå mennesker til å gjette, ganske enkelt ved å se på ansikter. Det er en betydelig milepæl.
Anbefalte videoer
Følelser betyr noe
Forskere har lenge vært interessert i å finne ut om maskiner kan identifisere følelser fra stillbilder eller videoopptak. Men det er først relativt nylig at en rekke startups har dukket opp ta denne teknologien mainstream. Den nylige studien testet kommersielle ansiktsgjenkjenningsmaskiner utviklet av Affectiva, CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision og VisageTechnologies. Alle disse er ledere innen det voksende feltet av affektiv databehandling, a.k.a. som lærer datamaskiner å gjenkjenne følelser.
Testen ble utført på 938 videoer, inkludert både poserte og spontane følelsesmessige visninger. Sjansen for en korrekt tilfeldig gjetning av algoritmen for de seks følelsestypene vil være rundt 16 %.
Damien Dupré, en assisterende professor ved Dublin City Universitys DCU Business School, fortalte Digital Trends at arbeid er viktig fordi det kommer på et tidspunkt da teknologi for følelsesgjenkjenning blir mer pålitelig på.
"Siden maskinlæringssystemer blir lettere å utvikle, leverer mange selskaper nå systemer for andre selskaper: hovedsakelig markedsførings- og bilfirmaer," sa Dupré. "Mens [å gjøre] en feil i følelsesgjenkjenning for akademisk forskning er, mesteparten av tiden, ufarlig, innsatsen er annerledes når man implanterer et følelsesgjenkjenningssystem i en selvkjørende bil, for eksempel. Derfor ønsket vi å sammenligne resultatene fra forskjellige systemer.»
Den kan en dag brukes til å oppdage ting som døsighet eller veiraseri, som kan utløse en semi-autonom bil som tar rattet.
Ideen om å kontrollere en bil ved å bruke følelsesdrevet ansiktsgjenkjenning høres ærlig talt skremmende ut - spesielt hvis du er en person som er utsatt for følelsesmessige utbrudd på veien. Heldigvis er det ikke akkurat slik det blir brukt. For eksempel har følelsesgjenkjenningsselskapet Affectiva utforsket bruken av kameraer i bilen identifisere følelser hos sjåfører. Den kan en dag brukes til å oppdage ting som døsighet eller veiraseri, som kan utløse en semi-autonom bil som tar rattet hvis en sjåfør anses uskikket til å kjøre.
Forskere ved University of Texas i Austin har i mellomtiden utviklet teknologi som kuraterer en "ultrapersonlig" musikkspilleliste som tilpasser seg hver brukers skiftende humør. En artikkel som beskrev verket, med tittelen "The Right Music at the Right Time: Adaptive Personalized Playlists Based on Sequence Modeling," var publisert denne måneden i tidsskriftet MIS Quarterly. Den beskriver bruk av følelsesanalyse som forutsier ikke bare hvilke sanger som vil appellere til brukere basert på humøret deres, men også den beste rekkefølgen de skal spilles av.
Det finnes også andre potensielle bruksområder for teknologi for følelsesgjenkjenning. Amazon, for eksempel, har ganske nylig begynt å innlemme følelsessporing av stemmer for sine Alexa assistent; slik at A.I. til gjenkjenne når en bruker viser frustrasjon. Lenger ned i linjen er det mulighet for at dette til og med kan føre til full-on følelsesmessig responsive kunstige agenter, som i Spike Jonzes film fra 2013 Henne.
I det nyere bildebaserte emosjonsanalysearbeidet er emosjonsføling basert på bilder. Som noen av disse illustrasjonene viser, er det imidlertid andre måter maskiner kan "snuse ut" på de riktige følelsene til rett tid.
"Når ansiktsinformasjon av en eller annen grunn er utilgjengelig, kan vi analysere vokalintonasjonene eller se på bevegelsene."
"Folk genererer mye ikke-verbale og fysiologiske data til enhver tid," sa George Pliev, grunnlegger og administrerende partner ved Neurodata Lab, et av selskapene hvis algoritmer ble testet for ansiktsgjenkjenningsstudien. «Bortsett fra ansiktsuttrykkene er det stemme, tale, kroppsbevegelser, hjertefrekvens og respirasjonsfrekvens. En multimodal tilnærming sier at atferdsdata skal trekkes ut fra ulike kanaler og analyseres samtidig. Dataene som kommer fra én kanal vil verifisere og balansere dataene mottatt fra de andre. For eksempel, når ansiktsinformasjon av en eller annen grunn er utilgjengelig, kan vi analysere vokale intonasjoner eller se på bevegelsene.»
Utfordringer fremover?
Det er imidlertid utfordringer - som alle involverte er enige om. Følelser er ikke alltid lette å identifisere; selv for menneskene som opplever dem.
«Hvis du ønsker å lære A.I. hvordan du oppdager biler, ansikter eller følelser, bør du først spørre folk hvordan disse gjenstandene ser ut, fortsatte Pliev. "Deres svar vil representere grunnsannheten. Når det gjelder å identifisere biler eller ansikter, ville nesten 100 % av de spurte svare konsekvente. Men når det kommer til følelser, er ting ikke så enkelt. Emosjonelle uttrykk har mange nyanser og avhenger av kontekst: kulturell bakgrunn, individuelle forskjeller, de spesielle situasjonene der følelser kommer til uttrykk. For én person vil et bestemt ansiktsuttrykk bety én ting, mens en annen person kan vurdere det annerledes.»
Dupré er enig i følelsen. "Kan disse systemene [garantert] gjenkjenne følelsene noen faktisk føler?" han sa. "Svaret er ikke i det hele tatt, og det vil de aldri bli! De gjenkjenner bare følelsen som folk bestemmer seg for å uttrykke - og mesteparten av tiden samsvarer det ikke med følelsen som føles. Så take-away-meldingen er at [maskiner] aldri vil lese... dine egne følelser."
Likevel betyr det ikke at teknologien ikke kommer til å være nyttig. Eller stoppe det fra å bli en stor del av livene våre i årene som kommer. Og til og med Damien Dupré etterlater et lite slingringsmonn når det kommer til sin egen spådom om at maskiner vil aldri oppnå noe: "Vel, aldri si aldri," bemerket han.
Forskningsoppgaven, "Følelsesgjenkjenning hos mennesker og maskin ved bruk av poserte og spontane ansiktsuttrykk," er tilgjengelig for å lese online her.
Redaktørenes anbefalinger
- Den morsomme formelen: Hvorfor maskingenerert humor er den hellige gral til A.I.
- Kvinner med byte: Vivienne Mings plan for å løse "rotete menneskelige problemer" med A.I.
- Vill ny "brainsourcing"-teknikk trener A.I. direkte med menneskelige hjernebølger
- Møt Neon, Samsungs kunstige menneske (som ikke ligner Bixby), på CES 2020
- Topp droneracer tar på seg robotdrone i første menneske-mot-maskin-sammenstøt