Până de curând, a trebuit să interacționăm cu computerele în propriile lor condiții. Pentru a le folosi, oamenii au trebuit să învețe intrări concepute pentru a fi înțelese de computer: fie că era vorba de tastarea comenzilor sau de clic pe pictograme folosind un mouse. Dar lucrurile se schimbă. Ascensiunea A.I. Asistenții vocali precum Siri și Alexa fac posibil ca mașinile să înțeleagă oamenii așa cum ar interacționa de obicei în lumea reală. Acum, cercetătorii caută următorul Sfânt Graal: computere care pot înțelege emoțiile.
Cuprins
- Emoțiile contează
- Provocări în viitor?
Fie că este vorba de robotul T-1000 al lui Arnold Schwarzenegger Terminator 2 sau Date, the android caracter în Star Trek: The Next Generation, incapacitatea mașinilor de a înțelege și de a răspunde corect la emoțiile umane a fost mult timp un trop comun SF. Cu toate acestea, cercetările din lumea reală arată că algoritmii de învățare automată devin de fapt impresionant de buni în recunoașterea indiciilor corporale pe care le folosim pentru a sugera cum ne simțim în interior. Și ar putea duce la o nouă frontieră a interacțiunilor om-mașină.
Nu ne înțelegeți greșit: mașinile nu sunt încă la fel de perspicace ca oamenii obișnuiți atunci când vine vorba de a recunoaște diferitele moduri în care exprimăm emoțiile. Dar devin mult mai bine. Într-un test recent efectuat de cercetători de la Universitatea Dublin City, University College London, Universitatea din Bremen și Queen’s Universitatea Belfast, o combinație de oameni și algoritmi au fost rugați să recunoască un sortiment de emoții uitându-se la fața umană expresii.
Legate de
- A.I. care sesizează emoții. este aici și ar putea fi la următorul interviu de angajare
- Oamenii de știință folosesc A.I. pentru a crea cod genetic uman artificial
- Am cunoscut oamenii artificiali ai Samsung și mi-au arătat viitorul I.A.
Emoțiile au inclus fericire, tristețe, furie, surpriză, frică și dezgust. În timp ce oamenii au depășit în general mașinile (cu o precizie de 73% în medie, comparativ cu 49% până la 62% în funcție de algoritm), scorurile strânse de diferiții roboți testați au arătat cât de departe au ajuns în acest sens. priveste. Cel mai impresionant, fericirea și tristețea au fost două emoții la care mașinile îi pot depăși pe oameni la ghicit, pur și simplu uitându-se la fețe. Acesta este o etapă semnificativă.
Videoclipuri recomandate
Emoțiile contează
Cercetătorii au fost de mult interesați să afle dacă mașinile pot identifica emoțiile din imagini statice sau din imagini video. Dar abia relativ recent au apărut o serie de startup-uri luați această tehnologie mainstream. Studiul recent a testat clasificatoare comerciale de mașini de recunoaștere facială dezvoltate de Affective, CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision și VisageTechnologies. Toți aceștia sunt lideri în domeniul în creștere al calculului afectiv, a.k.a. învățând computerele să recunoască emoțiile.
Testul a fost efectuat pe 938 de videoclipuri, inclusiv afișări emoționale atât pozate, cât și spontane. Șansa unei ipoteze aleatorii corecte de către algoritm pentru cele șase tipuri de emoții ar fi de aproximativ 16%.
Damien Dupré, profesor asistent la DCU Business School de la Dublin City University, a declarat pentru Digital Trends că munca este importantă pentru că vine într-un moment în care tehnologia de recunoaștere a emoțiilor devine din ce în ce mai de încredere peste.
„Deoarece sistemele de învățare automată devin din ce în ce mai ușor de dezvoltat, o mulțime de companii oferă acum sisteme pentru alte companii: în principal companii de marketing și de automobile”, a spus Dupré. „În timp ce [a face] o greșeală în recunoașterea emoțiilor pentru cercetarea academică este, de cele mai multe ori, inofensive, mizele sunt diferite la implantarea unui sistem de recunoaștere a emoțiilor într-o mașină cu conducere autonomă, pt exemplu. Prin urmare, am vrut să comparăm rezultatele diferitelor sisteme.”
Ar putea fi folosit într-o zi pentru a detecta lucruri precum somnolența sau furia rutieră, care ar putea declanșa o mașină semi-autonomă care ia volanul.
Ideea de a controla o mașină folosind recunoașterea facială bazată pe emoții sună, sincer, terifiant - mai ales dacă ești genul de persoană predispusă la izbucniri emoționale pe drum. Din fericire, nu este chiar așa cum este folosit. De exemplu, compania de recunoaștere a emoțiilor Affective a explorat utilizarea camerelor din mașină identificarea emoțiilor la șoferi. Ar putea fi folosit într-o zi pentru a detecta lucruri precum somnolența sau furia rutieră, care ar putea declanșa o mașină semiautonomă care ia volanul dacă un șofer este considerat inapt să conducă.
Între timp, cercetătorii de la Universitatea Texas din Austin au dezvoltat o tehnologie care organizează o listă de redare muzicală „ultra-personală” care se adaptează stărilor de spirit în schimbare ale fiecărui utilizator. O lucrare care descrie lucrarea, intitulată „Muzica potrivită la momentul potrivit: liste de redare personalizate adaptive bazate pe modelarea secvenței”, a fost publicat luna aceasta în revista MIS Quarterly. Descrie utilizarea analizei emoționale care prezice nu doar melodiile care vor atrage utilizatorii în funcție de starea lor de spirit, ci și cea mai bună ordine în care să le redați.
Există și alte aplicații potențiale pentru tehnologia de recunoaștere a emoțiilor. Amazon, de exemplu, a început foarte recent să încorporeze urmărirea emoțiilor pentru voci Alexa asistent; permițând A.I. la recunoașteți când un utilizator manifestă frustrare. În continuare, există posibilitatea ca acest lucru să conducă chiar la agenți artificiali cu receptivitate emoțională, cum ar fi Filmul lui Spike Jonze din 2013 A ei.
În activitatea recentă de analiză a emoțiilor bazată pe imagini, detectarea emoțiilor se bazează pe imagini. Cu toate acestea, așa cum arată unele dintre aceste ilustrații, există și alte moduri prin care mașinile pot „adulmeca” emoția potrivită la momentul potrivit.
„Când informațiile faciale nu sunt disponibile dintr-un motiv oarecare, putem analiza intonațiile vocale sau putem privi gesturile.”
„Oamenii generează o mulțime de date non-verbale și fiziologice în orice moment”, a spus George Pliev, fondator și managing partner la Neurodata Lab, una dintre companiile ai căror algoritmi au fost testați pentru studiul de recunoaștere facială. „În afară de expresiile faciale, există vocea, vorbirea, mișcările corpului, ritmul cardiac și ritmul respirator. O abordare multimodală afirmă că datele comportamentale ar trebui extrase din diferite canale și analizate simultan. Datele care provin de la un canal vor verifica și echilibra datele primite de la celelalte. De exemplu, atunci când informațiile faciale nu sunt disponibile dintr-un motiv oarecare, putem analiza intonațiile vocale sau putem privi gesturile.”
Provocări în viitor?
Cu toate acestea, există provocări – după cum toți cei implicați sunt de acord. Emoțiile nu sunt întotdeauna ușor de identificat; chiar și pentru oamenii care le experimentează.
„Dacă doriți să predați A.I. cum să detectezi mașinile, fețele sau emoțiile, mai întâi ar trebui să întrebi oamenii cum arată aceste obiecte”, a continuat Pliev. „Răspunsurile lor vor reprezenta adevărul de bază. Când vine vorba de identificarea mașinilor sau a fețelor, aproape 100% dintre persoanele întrebate ar fi consecvente în răspunsurile lor. Dar când vine vorba de emoții, lucrurile nu sunt atât de simple. Expresiile emoționale au multe nuanțe și depind de context: fundalul cultural, diferențele individuale, situațiile particulare în care sunt exprimate emoțiile. Pentru o persoană, o anumită expresie facială ar însemna un lucru, în timp ce o altă persoană o poate considera diferit.”
Dupré este de acord cu sentimentul. „Pot aceste sisteme [fi garantate] să recunoască emoția resimțită de fapt de cineva?” el a spus. „Răspunsul nu este deloc și nu vor fi niciodată! Ei recunosc doar emoția pe care oamenii decid să o exprime - și de cele mai multe ori aceasta nu corespunde emoției resimțite. Așa că mesajul de luat este că [mașinile] nu vor citi niciodată... propria emoție.”
Totuși, asta nu înseamnă că tehnologia nu va fi utilă. Sau împiedicați-o să devină o parte importantă a vieții noastre în anii următori. Și chiar și Damien Dupré lasă o mică marjă de mișcare când vine vorba de propria sa predicție că mașinile vor nu realiza ceva: „Ei bine, niciodată să nu spui niciodată”, a observat el.
Lucrarea de cercetare, „Recunoașterea emoțiilor la oameni și la mașină folosind expresia facială pozată și spontană”, este disponibil pentru a citi online aici.
Recomandările editorilor
- Formula amuzantă: De ce umorul generat de mașini este Sfântul Graal al A.I.
- Women with Byte: planul lui Vivienne Ming de a rezolva „problemele umane dezordonate” cu A.I.
- Noua tehnică sălbatică de „brainsourcing” antrenează A.I. direct cu undele cerebrale umane
- Faceți cunoștință cu Neon, omul artificial al Samsung (care nu seamănă deloc cu Bixby), la CES 2020
- Un pilot de top cu drone se confruntă cu o dronă robot în prima ciocnire între oameni și mașini