Vēl pavisam nesen mums bija nācies mijiedarboties ar datoriem atbilstoši to noteikumiem. Lai tos izmantotu, cilvēkiem bija jāapgūst ievades, kas izstrādātas tā, lai tās būtu saprotamas datoram: neatkarīgi no tā, vai tas bija rakstīt komandas vai klikšķināt uz ikonām, izmantojot peli. Bet lietas mainās. A.I. pieaugums. balss palīgi, piemēram, Siri un Alexa, ļauj mašīnām saprast cilvēkus tā, kā tie parasti mijiedarbojas reālajā pasaulē. Tagad pētnieki meklē nākamo Svēto Grālu: datorus, kas spēj saprast emocijas.
Saturs
- Emocijām ir nozīme
- Izaicinājumi priekšā?
Neatkarīgi no tā, vai tas ir Arnolda Švarcenegera T-1000 robots Terminators 2 vai Dati, Android raksturs iekšā Zvaigžņu ceļš: nākamā paaudze, mašīnu nespēja izprast cilvēka emocijas un pareizi reaģēt uz tām jau sen ir bijis izplatīts zinātniskās fantastikas trops. Tomēr reālās pasaules pētījumi liecina, ka mašīnmācīšanās algoritmi patiešām kļūst iespaidīgi labi, atpazīstot ķermeņa norādes, kuras mēs izmantojam, lai sniegtu mājienus par to, kā jūtamies iekšā. Un tas varētu novest pie pilnīgi jaunas cilvēka un mašīnas mijiedarbības robežas.
Nepārprotiet mūs nepareizi: mašīnas vēl nav tik gudras kā vidusmēra cilvēks, lai atpazītu dažādus veidus, kā mēs izpaužam emocijas. Bet viņi kļūst daudz labāki. Nesenajā testā, ko veica Dublinas pilsētas universitātes, Londonas Universitātes koledžas, Brēmenes universitātes un Karalienes universitātes pētnieki Belfāstas Universitātei, cilvēku un algoritmu kombinācijai, tika lūgts atpazīt dažādas emocijas, skatoties uz cilvēka seju. izteiksmes.
Saistīts
- Emociju sensors A.I. ir šeit, un tas varētu būt jūsu nākamajā darba intervijā
- Zinātnieki izmanto A.I. radīt mākslīgu cilvēka ģenētisko kodu
- Es satiku Samsung mākslīgos cilvēkus, un viņi man parādīja A.I nākotni.
Emocijas ietvēra laimi, skumjas, dusmas, pārsteigumu, bailes un riebumu. Lai gan cilvēki joprojām pārspēja mašīnas kopumā (ar precizitāti vidēji 73%, salīdzinot ar 49% līdz 62% atkarībā no algoritma), dažādu pārbaudīto robotu apkopotie rezultāti parādīja, cik tālu viņi ir tikuši šajā ņemot vērā. Iespaidīgākais ir tas, ka laime un skumjas bija divas emocijas, ar kurām mašīnas var pārspēt cilvēkus, uzminot, vienkārši skatoties uz sejām. Tas ir nozīmīgs pavērsiens.
Ieteiktie videoklipi
Emocijām ir nozīme
Pētnieki jau sen ir ieinteresēti noskaidrot, vai mašīnas var identificēt emocijas no nekustīgiem attēliem vai videomateriāla. Bet tikai salīdzinoši nesen ir izveidojušies vairāki jaunuzņēmumi izmantot šo tehnoloģiju galvenajā virzienā. Nesenajā pētījumā tika pārbaudīti Affectiva izstrādātie komerciālie sejas atpazīšanas iekārtu klasifikatori, CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision un VisageTechnologies. Viņi visi ir līderi augošajā afektīvās skaitļošanas jomā, kas pazīstama arī kā māca datoriem atpazīt emocijas.
Pārbaude tika veikta ar 938 videoklipiem, tostarp gan pozētiem, gan spontāniem emociju izpausmēm. Pareiza nejauša minējuma iespēja pēc algoritma sešiem emociju veidiem būtu aptuveni 16%.
Demjens Duprē, Dublinas pilsētas universitātes DCU biznesa skolas docents, pastāstīja Digital Trends, ka darbs ir svarīgs, jo tas notiek laikā, kad emociju atpazīšanas tehnoloģija kļūst arvien vairāk atkarīga uz.
"Tā kā mašīnmācīšanās sistēmas kļūst vieglāk izstrādātas, daudzi uzņēmumi tagad nodrošina sistēmas citiem uzņēmumiem: galvenokārt mārketinga un autobūves uzņēmumiem," sacīja Duprē. "Tā kā [pieļaut] kļūdu emociju atpazīšanā akadēmiskajam pētījumam lielāko daļu laika ir nekaitīgs, likmes ir atšķirīgas, implantējot emociju atpazīšanas sistēmu pašbraucošā automašīnā, par piemērs. Tāpēc mēs vēlējāmies salīdzināt dažādu sistēmu rezultātus.
Kādu dienu to varētu izmantot, lai pamanītu tādas lietas kā miegainība vai niknums uz ceļa, kas varētu izraisīt daļēji autonomu automašīnu, kas ieņemtu stūri.
Ideja vadīt automašīnu, izmantojot emociju vadītu sejas atpazīšanas sistēmu, izklausās, atklāti sakot, biedējoši — it īpaši, ja esat tāds cilvēks, kuram ir tendence uz emocionāliem uzliesmojumiem uz ceļa. Par laimi, tas nav tieši tā, kā tas tiek izmantots. Piemēram, emociju atpazīšanas uzņēmums Affectiva ir izpētījis automašīnā iebūvētu kameru izmantošanu identificēt autovadītāju emocijas. Kādu dienu to varētu izmantot, lai pamanītu tādas lietas kā miegainība vai niknums uz ceļa, kas var izraisīt daļēji autonomu automašīnu, kas sēstos pie stūres, ja vadītājs tiek uzskatīts par braukšanai nepiemērotu.
Tikmēr Teksasas Universitātes Ostinā pētnieki ir izstrādājuši tehnoloģiju, kas veido "īpaši personisku" mūzikas atskaņošanas sarakstu, kas pielāgojas katra lietotāja mainīgajam noskaņojumam. Darbs aprakstīja darbu ar nosaukumu “Pareizā mūzika īstajā laikā: adaptīvi personalizēti atskaņošanas saraksti, kuru pamatā ir secības modelēšana”. publicēts šomēnes žurnālā MIS Quarterly. Tajā aprakstīta emociju analīze, kas paredz ne tikai to, kuras dziesmas lietotājiem patiks, pamatojoties uz viņu noskaņojumu, bet arī labāko atskaņošanas secību.
Emociju atpazīšanas tehnoloģijai ir arī citi iespējamie pielietojumi. Piemēram, Amazon pavisam nesen ir sācis iekļaut balsu emociju izsekošanu Alexa palīgs; ļaujot A.I. uz atpazīt, kad lietotājs izrāda neapmierinātību. Tālāk pastāv iespēja, ka tas var pat novest pie pilnībā emocionāli atsaucīgiem mākslīgiem aģentiem, piemēram, Spike Jonze 2013. gada filma Viņa.
Nesenajā uz attēlu balstītajā emociju analīzes darbā emociju noteikšana ir balstīta uz attēliem. Tomēr, kā parādīts dažās no šīm ilustrācijām, ir arī citi veidi, kā mašīnas var īstajā laikā “izšņaukt” īstās emocijas.
"Ja kāda iemesla dēļ informācija par seju nav pieejama, mēs varam analizēt balss intonācijas vai skatīties žestus."
"Cilvēki jebkurā brīdī ģenerē daudz neverbālu un fizioloģisku datu," sacīja Džordžs Plijevs, uzņēmuma dibinātājs un vadošais partneris. Neurodata laboratorija, viens no uzņēmumiem, kura algoritmi tika pārbaudīti sejas atpazīšanas pētījumam. “Izņemot sejas izteiksmes, ir arī balss, runa, ķermeņa kustības, sirdsdarbība un elpošanas ātrums. Multimodālā pieeja nosaka, ka uzvedības dati ir jāiegūst no dažādiem kanāliem un jāanalizē vienlaikus. Dati, kas nāk no viena kanāla, pārbaudīs un līdzsvaros datus, kas saņemti no citiem kanāliem. Piemēram, ja kāda iemesla dēļ nav pieejama informācija par seju, mēs varam analizēt balss intonācijas vai skatīties žestus.
Izaicinājumi priekšā?
Tomēr ir izaicinājumi — kā visi iesaistītie piekrīt. Emocijas ne vienmēr ir viegli identificēt; pat cilvēkiem, kas tos piedzīvo.
“Ja vēlaties mācīt A.I. kā atpazīt automašīnas, sejas vai emocijas, vispirms vajadzētu pajautāt cilvēkiem, kā šie objekti izskatās,” turpināja Plijevs. "Viņu atbildes atspoguļos galveno patiesību. Runājot par automašīnu vai seju identificēšanu, gandrīz 100% cilvēku, kuriem tika uzdots jautājums, atbildēs konsekventi. Bet, runājot par emocijām, lietas nav tik vienkārši. Emocionālajām izpausmēm ir daudz nianses un tās ir atkarīgas no konteksta: kultūras fona, individuālajām atšķirībām, konkrētām emociju izpausmes situācijām. Vienai personai konkrēta sejas izteiksme nozīmētu vienu lietu, bet cita persona to var uzskatīt savādāk.
Duprē piekrīt šim noskaņojumam. "Vai šīs sistēmas var [var garantēt] atpazīt emocijas, ko kāds patiešām izjūt?" viņš teica. “Atbilde vispār nav un nekad nebūs! Viņi atpazīst tikai emocijas, kuras cilvēki nolemj paust, un lielākoties tās neatbilst izjustajām emocijām. Tātad īsziņa ir tāda, ka [mašīnas] nekad nelasīs … jūsu emocijas.
Tomēr tas nenozīmē, ka tehnoloģija nebūs noderīga. Vai arī turpmākajos gados neļaujiet tai kļūt par lielu mūsu dzīves daļu. Un pat Demjens Duprē atstāj nelielu brīvību, kad runa ir par viņa paša prognozēm, ka mašīnas to darīs nekad kaut ko sasniegt: "Nu, nekad nesaki nekad," viņš atzīmēja.
Pētījums "Emociju atpazīšana cilvēkos un mašīnās, izmantojot pozētu un spontānu sejas izteiksmi" ir pieejams lasīšanai tiešsaistē šeit.
Redaktoru ieteikumi
- Smieklīgā formula: kāpēc mašīnu radīts humors ir A.I. svētais grāls?
- Sievietes ar baitu: Vivjenas Mingas plāns atrisināt “netīrās cilvēciskās problēmas” ar A.I.
- Savvaļas jaunā "prāta avota" tehnika apmāca A.I. tieši ar cilvēka smadzeņu viļņiem
- Iepazīstieties ar Neonu, Samsung mākslīgo cilvēku (kurš nelīdzinās Biksbijam) izstādē CES 2020
- Labākais dronu sacīkšu braucējs cīnās ar robotu bezpilota lidaparātu pirmajā sadursmē ar cilvēku un mašīnu