Indtil for ganske nylig har vi været nødt til at interagere med computere på deres egne præmisser. For at bruge dem skulle mennesker lære input designet til at blive forstået af computeren: hvad enten det var at skrive kommandoer eller klikke på ikoner ved hjælp af en mus. Men tingene ændrer sig. Fremkomsten af A.I. stemmeassistenter som Siri og Alexa gør det muligt for maskiner at forstå mennesker, som de normalt ville interagere i den virkelige verden. Nu rækker forskere ud efter den næste hellige gral: Computere, der kan forstå følelser.
Indhold
- Følelser betyder noget
- Udfordringer forude?
Uanset om det er Arnold Schwarzeneggers T-1000 robot i Terminator 2 eller Data, den android tegn i Star Trek: Den næste generation, har maskinernes manglende evne til at forstå og reagere korrekt på menneskelige følelser længe været en almindelig sci-fi-trope. Men forskning fra den virkelige verden viser, at maskinlæringsalgoritmer faktisk bliver imponerende gode til at genkende de kropslige signaler, vi bruger til at antyde, hvordan vi har det indeni. Og det kan føre til en helt ny grænse for menneske-maskine-interaktioner.
Misforstå os ikke: Maskiner er endnu ikke så kloge som dit gennemsnitlige menneske, når det kommer til at genkende de forskellige måder, vi udtrykker følelser på. Men de bliver meget bedre. I en nylig test udført af forskere ved Dublin City University, University College London, University of Bremen og Queen's University Belfast, en kombination af mennesker og algoritmer blev bedt om at genkende et udvalg af følelser ved at se på menneskets ansigtsbehandling udtryk.
Relaterede
- Følelsesfølende A.I. er her, og det kan blive til din næste jobsamtale
- Forskere bruger A.I. at skabe kunstig menneskelig genetisk kode
- Jeg mødte Samsungs kunstige mennesker, og de viste mig fremtiden for A.I.
Følelserne omfattede glæde, tristhed, vrede, overraskelse, frygt og afsky. Mens mennesker stadig udkonkurrerede maskiner generelt (med en nøjagtighed på 73 % i gennemsnit sammenlignet med 49 % til 62 % afhængigt af algoritmen), viste de scorer, der blev indsamlet af de forskellige testede bots, hvor langt de er nået i dette hensyn. Mest imponerende var lykke og tristhed to følelser, hvor maskiner kan overgå mennesker til at gætte, blot ved at se på ansigter. Det er en væsentlig milepæl.
Anbefalede videoer
Følelser betyder noget
Forskere har længe været interesseret i at finde ud af, om maskiner kan identificere følelser fra stillbilleder eller videooptagelser. Men det er først for relativt nylig, at en række startups er opstået til tage denne teknologi mainstream. Den nylige undersøgelse testede kommercielle ansigtsgenkendelsesmaskiner udviklet af Affectiva, CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision og VisageTechnologies. Alle disse er førende inden for det voksende felt af affektiv databehandling, også kaldet undervisning af computere til at genkende følelser.
Testen blev udført på 938 videoer, inklusive både poserede og spontane følelsesmæssige visninger. Chancen for et korrekt tilfældigt gæt af algoritmen for de seks følelsestyper ville være omkring 16%.
Damien Dupré, en assisterende professor ved Dublin City Universitys DCU Business School, fortalte Digital Trends, at arbejde er vigtigt, fordi det kommer på et tidspunkt, hvor følelsesgenkendelsesteknologien bliver mere pålidelig på.
"Da maskinlæringssystemer bliver lettere at udvikle, leverer mange virksomheder nu systemer til andre virksomheder: primært marketing- og bilvirksomheder," sagde Dupré. "Mens [at begå] en fejl i følelsesgenkendelse for akademisk forskning er, det meste af tiden, harmløse, er indsatsen anderledes, når man implanterer et følelsesgenkendelsessystem i en selvkørende bil, f. eksempel. Derfor ønskede vi at sammenligne resultaterne af forskellige systemer."
Den kunne en dag bruges til at få øje på ting som døsighed eller vejraseri, som kan udløse en semi-autonom bil, der tager rattet.
Ideen om at styre en bil ved hjælp af følelsesdrevet ansigtsgenkendelse lyder ærligt talt skræmmende - især hvis du er den slags person, der er tilbøjelig til følelsesmæssige udbrud på vejen. Heldigvis er det ikke lige sådan, det bliver brugt. For eksempel har følelsesgenkendelsesfirmaet Affectiva undersøgt brugen af kameraer i bilen identificere følelser hos chauffører. Den kunne en dag bruges til at få øje på ting som døsighed eller vejraseri, som kan udløse en semi-autonom bil, der tager rattet, hvis en chauffør anses for uegnet til at køre.
Forskere ved University of Texas i Austin har i mellemtiden udviklet teknologi, der kuraterer en "ultrapersonlig" musikafspilningsliste, der tilpasser sig hver brugers skiftende humør. Et papir, der beskriver værket, med titlen "Den rigtige musik på det rigtige tidspunkt: Adaptive, personlige afspilningslister baseret på sekvensmodellering", var udgivet i denne måned i tidsskriftet MIS Quarterly. Den beskriver brugen af følelsesanalyse, der forudsiger ikke kun, hvilke sange der vil appellere til brugerne baseret på deres humør, men også den bedste rækkefølge, de kan afspilles i.
Der er også andre potentielle anvendelser for følelsesgenkendelsesteknologi. Amazon, for eksempel, er for ganske nylig begyndt at inkorporere følelsessporing af stemmer til sine Alexa assistent; tillader A.I. til genkende, når en bruger viser frustration. Længere nede af linjen er der mulighed for, at dette endda kan føre til fuld-på følelsesmæssigt responsive kunstige midler, som det i Spike Jonzes film fra 2013 Hende.
I det nyere billedbaserede følelsesanalysearbejde er følelsessansning baseret på billeder. Men som nogle af disse illustrationer viser, er der andre måder, hvorpå maskiner kan "opsnuse" den rigtige følelse på det rigtige tidspunkt.
"Når ansigtsinformation af en eller anden grund ikke er tilgængelig, kan vi analysere vokalintonationerne eller se på bevægelserne."
"Folk genererer en masse non-verbale og fysiologiske data på ethvert givet tidspunkt," sagde George Pliev, grundlægger og administrerende partner hos Neurodata Lab, en af de virksomheder, hvis algoritmer blev testet til ansigtsgenkendelsesundersøgelsen. ”Udover ansigtsudtrykkene er der stemme, tale, kropsbevægelser, puls og åndedrætsfrekvens. En multimodal tilgang siger, at adfærdsdata skal udtrækkes fra forskellige kanaler og analyseres samtidigt. De data, der kommer fra én kanal, vil verificere og balancere de data, der modtages fra de andre. For eksempel, når ansigtsinformation af en eller anden grund er utilgængelig, kan vi analysere de vokale intonationer eller se på bevægelserne."
Udfordringer forude?
Der er dog udfordringer - som alle involverede er enige om. Følelser er ikke altid nemme at identificere; selv for de mennesker, der oplever dem.
"Hvis du ønsker at undervise A.I. hvordan man opdager biler, ansigter eller følelser, bør du først spørge folk, hvordan disse objekter ser ud,” fortsatte Pliev. "Deres svar vil repræsentere grundsandheden. Når det kommer til at identificere biler eller ansigter, ville næsten 100 % af de spurgte være konsekvente i deres svar. Men når det kommer til følelser, er tingene ikke så enkle. Følelsesmæssige udtryk har mange nuancer og afhænger af kontekst: Kulturel baggrund, individuelle forskelle, de særlige situationer, hvor følelser kommer til udtryk. For én person ville et bestemt ansigtsudtryk betyde én ting, mens en anden person kan betragte det anderledes.”
Dupré er enig i stemningen. "Kan disse systemer [garanteret] genkende den følelse, som faktisk mærkes af nogen?" han sagde. “Svaret er slet ikke, og det bliver de aldrig! De genkender kun den følelse, som folk beslutter sig for at udtrykke - og det meste af tiden svarer det ikke til den følelse, de føler. Så take-away beskeden er, at [maskiner] aldrig vil læse … dine egne følelser.”
Alligevel betyder det ikke, at teknologien ikke vil være nyttig. Eller forhindre det i at blive en stor del af vores liv i de kommende år. Og selv Damien Dupré efterlader et lille vrøvl, når det kommer til sin egen forudsigelse om, at maskiner vil aldrig opnå noget: "Nå, sig aldrig aldrig," bemærkede han.
Forskningspapiret, "Følelsesgenkendelse hos mennesker og maskine ved hjælp af poserede og spontane ansigtsudtryk," er kan læses online her.
Redaktørernes anbefalinger
- Den sjove formel: Hvorfor maskingenereret humor er den hellige gral for A.I.
- Kvinder med byte: Vivienne Mings plan om at løse 'rodet menneskelige problemer' med A.I.
- Vild ny 'brainsourcing'-teknik træner A.I. direkte med menneskelige hjernebølger
- Mød Neon, Samsungs kunstige menneske (som ikke ligner Bixby), på CES 2020
- Top drone racer tager imod robotdrone i første menneske-mod-maskine-sammenstød