Masinad saavad inimeste emotsioonide äratundmisel kohutavalt headeks

Kuni viimase ajani pidime arvutitega suhtlema nende endi tingimustel. Nende kasutamiseks pidid inimesed õppima sisendeid, mis on mõeldud arvutile arusaadavaks: olgu selleks siis käskude tippimine või hiirega ikoonidel klõpsamine. Aga asjad muutuvad. A.I. tõus. hääleassistendid, nagu Siri ja Alexa, võimaldavad masinatel mõista inimesi nii, nagu nad tavaliselt reaalses maailmas suhtleksid. Nüüd on teadlased jõudmas järgmise Püha Graali poole: arvutid, mis suudavad mõista emotsioone.

Sisu

  • Emotsioonid loevad
  • Väljakutsed ees?

Kas see on Arnold Schwarzeneggeri T-1000 robot Terminaator 2 või Andmed, android tegelane sisse Star Trek: Järgmine põlvkond, masinate võimetus inimese emotsioone mõista ja neile õigesti reageerida on olnud pikka aega levinud ulmeline troop. Reaalse maailma uuringud näitavad aga, et masinõppe algoritmid tunnevad tegelikult muljetavaldavalt hästi ära kehalised näpunäited, mida me kasutame, et vihjata oma sisemisele enesetundele. Ja see võib viia inimese ja masina vahelise suhtluse täiesti uue piirini.

Affectiva

Ärge saage meid valesti aru: masinad ei ole emotsioonide väljendamise erinevate viiside äratundmisel veel nii nutikad kui teie keskmine inimene. Kuid nad muutuvad palju paremaks. Hiljutises katses, mille viisid läbi Dublini linnaülikooli, Londoni ülikooli kolledži, Bremeni ülikooli ja Queensi teadlased Belfasti ülikoolil paluti inimeste ja algoritmide kombinatsioonil inimese nägu vaadates ära tunda erinevaid emotsioone. väljendid.

Seotud

  • Emotsioone tajuv A.I. on siin ja see võib olla teie järgmisel tööintervjuul
  • Teadlased kasutavad A.I. luua inimese kunstlik geneetiline kood
  • Kohtusin Samsungi tehisinimestega ja nad näitasid mulle A.I tulevikku.

Emotsioonid hõlmasid õnne, kurbust, viha, üllatust, hirmu ja vastikust. Kuigi inimesed ületasid üldiselt masinaid (keskmiselt 73% täpsusega võrreldes 49% kuni 62% täpsusega). olenevalt algoritmist) näitasid erinevate testitud robotite kogutud hinded, kui kaugele nad on selles arvesse. Kõige muljetavaldavam on see, et õnn ja kurbus olid kaks emotsiooni, mille puhul masinad suudavad lihtsalt nägusid vaadates inimesi ära arvata. See on märkimisväärne verstapost.

Soovitatud videod

Emotsioonid loevad

Teadlasi on pikka aega huvitanud välja selgitada, kas masinad suudavad piltide või videomaterjali põhjal emotsioone tuvastada. Kuid alles suhteliselt hiljuti on tekkinud hulk idufirmasid võtke see tehnoloogia peavoolu. Hiljutises uuringus testiti Affectiva välja töötatud kaubanduslikke näotuvastusmasinate klassifikaatoreid, CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision ja VisageTechnologies. Kõik need on liidrid kasvavas afektiivse andmetöötluse valdkonnas, ehk õpetavad arvuteid emotsioone ära tundma.

Test viidi läbi 938 videoga, mis hõlmasid nii poseeritud kui ka spontaanseid emotsioone. Algoritmi õige juhusliku arvamise võimalus kuue emotsioonitüübi puhul oleks umbes 16%.

Damien DupréDublini linnaülikooli DCU ärikooli abiprofessor ütles Digital Trendsile, et töö on oluline, sest see toimub ajal, mil emotsioonide tuvastamise tehnoloogia on muutumas üha enam sõltuvaks peale.

"Kuna masinõppesüsteemide arendamine on muutumas lihtsamaks, pakuvad paljud ettevõtted praegu süsteeme teistele ettevõtetele: peamiselt turundus- ja autotööstuse ettevõtetele, " ütles Dupré. "Arvestades, et akadeemilise uurimistöö jaoks emotsioonide tuvastamisel vea tegemine on enamasti kahjutu, panused on erinevad, kui implanteerida emotsioonide tuvastamise süsteem isejuhtivale autole, eest näiteks. Seetõttu tahtsime võrrelda erinevate süsteemide tulemusi.

Seda võidakse ühel päeval kasutada selliste asjade tuvastamiseks nagu unisus või maanteeraev, mis võivad vallandada poolautonoomse auto rooli.

Idee juhtida autot emotsioonipõhise näotuvastuse abil kõlab ausalt öeldes hirmutavalt – eriti kui olete seda tüüpi inimene, kellel on teedel emotsionaalsed puhangud. Õnneks seda täpselt nii ei kasutata. Näiteks on emotsioonide tuvastamise ettevõte Affectiva uurinud autosiseste kaamerate kasutamist tuvastada juhtide emotsioone. Seda võidakse ühel päeval kasutada selliste asjade tuvastamiseks nagu unisus või maanteeraev, mis võib käivitada poolautonoomse auto, mis hakkab rooli võtma, kui juht tunnistatakse juhtimiseks sobimatuks.

Austini Texase ülikooli teadlased on vahepeal välja töötanud tehnoloogia, mis koostab ülipersonaalse muusika esitusloendi, mis kohandub iga kasutaja muutuva meeleoluga. Teost kirjeldav artikkel pealkirjaga "Õige muusika õigel ajal: järjestuse modelleerimisel põhinevad kohanduvad isikupärastatud esitusloendid" avaldatud sel kuul ajakirjas MIS Quarterly. See kirjeldab emotsioonide analüüsi kasutamist, mis ennustab mitte ainult seda, millised laulud kasutajate meeleolu põhjal meeldivad, vaid ka parimat järjekorda nende esitamiseks.

Affectiva

Emotsioonide tuvastamise tehnoloogial on ka teisi potentsiaalseid rakendusi. Näiteks Amazon on hiljuti hakanud oma häälte emotsioonide jälgimist kasutama Alexa assistent; võimaldades A.I. juurde ära tunda, kui kasutaja on pettunud. Edasi on võimalik, et see võib viia isegi emotsionaalselt tundlike tehisaineteni, nagu näiteks Spike Jonze 2013. aasta film Tema.

Värskes pildipõhises emotsioonianalüüsi töös põhineb emotsiooni tajumine piltidel. Kuid nagu mõned neist illustratsioonidest näitavad, on ka teisi viise, kuidas masinad saavad õige emotsiooni õigel ajal „nuusutada”.

"Kui näoteave pole mingil põhjusel kättesaadav, saame analüüsida hääle intonatsioone või vaadata žeste."

"Inimesed genereerivad igal hetkel palju mitteverbaalseid ja füsioloogilisi andmeid," ütles George Pliev, ettevõtte asutaja ja juhtivpartner. Neurodata labor, üks ettevõtetest, kelle algoritme näotuvastusuuringu jaoks testiti. “Peale näoilme on veel hääl, kõne, kehaliigutused, pulss ja hingamissagedus. Multimodaalne lähenemine näeb ette, et käitumisandmeid tuleks hankida erinevatest kanalitest ja analüüsida samaaegselt. Ühest kanalist tulevad andmed kontrollivad ja tasakaalustavad teistelt kanalitelt saadud andmeid. Näiteks kui näoinfo pole mingil põhjusel kättesaadav, saame analüüsida hääle intonatsioone või vaadata žeste.

Väljakutsed ees?

Siiski on väljakutseid – nagu kõik asjaosalised nõustuvad. Emotsioone ei ole alati lihtne tuvastada; isegi neile, kes neid kogevad.

"Kui soovite õpetada A.I. kuidas tuvastada autosid, nägusid või emotsioone, tuleks esmalt inimestelt küsida, kuidas need objektid välja näevad,” jätkas Pliev. "Nende vastused esindavad põhitõde. Mis puutub autode või nägude tuvastamisse, siis peaaegu 100% küsitletutest on oma vastustes järjekindlad. Kuid emotsioonide osas pole asjad nii lihtsad. Emotsionaalsetel väljendusviisidel on palju nüansse ja need sõltuvad kontekstist: kultuurilisest taustast, individuaalsetest erinevustest, konkreetsetest olukordadest, kus emotsioone väljendatakse. Ühe inimese jaoks tähendaks konkreetne näoilme ühte asja, samas kui teine ​​inimene võib seda mõelda erinevalt.

Dupré nõustub arvamusega. "Kas need süsteemid saavad [tagata] ära tunda emotsiooni, mida keegi tegelikult tunneb?" ta ütles. “Vastus ei ole üldse ja nad ei saa kunagi olema! Nad tunnevad ära ainult emotsiooni, mida inimesed otsustavad väljendada – ja enamasti ei vasta see tunnetatud emotsioonile. Nii et sõnum on see, et [masinad] ei loe kunagi... teie enda emotsioone.

Siiski ei tähenda see, et tehnoloogia ei oleks kasulik. Või peatada selle saamast suur osa meie elust järgmistel aastatel. Ja isegi Damien Dupré jätab väikese võnkuma ruumi, kui ta arvab, et masinad seda teevad mitte kunagi midagi saavutada: "Noh, ära iial ütle iial," märkis ta.

Uurimistöö "Emotsioonide tuvastamine inimestel ja masinatel poseeritud ja spontaanse näoilme abil" on Internetis lugemiseks saadaval siin.

Toimetajate soovitused

  • Naljakas valem: miks masinaga loodud huumor on A.I püha graal?
  • Naised byte'iga: Vivienne Mingi plaan lahendada "segased inimprobleemid" koos A.I.
  • Metsik uus "ajuhanke" tehnika treenib A.I. otse inimese ajulainetega
  • Tutvuge CES 2020 konverentsil Samsungi tehisinimese Neoniga (kes pole midagi Bixbyt)
  • Tippdroonide võidusõitja astub esimeses inimese ja masina kokkupõrkes vastu robotdrooniga