Fino a poco tempo fa abbiamo dovuto interagire con i computer alle loro condizioni. Per utilizzarli, gli esseri umani dovevano apprendere input progettati per essere compresi dal computer: sia che si trattasse di digitare comandi o di fare clic su icone utilizzando il mouse. Ma le cose stanno cambiando. L’ascesa dell’A.I. gli assistenti vocali come Siri e Alexa consentono alle macchine di comprendere gli esseri umani come interagirebbero normalmente nel mondo reale. Ora i ricercatori stanno cercando il prossimo Santo Graal: i computer in grado di comprendere le emozioni.
Contenuti
- Le emozioni contano
- Sfide future?
Che si tratti del robot T-1000 di Arnold Schwarzenegger Terminatore 2 o Dati, il androide personaggio dentro Star Trek: La prossima generazione, l'incapacità delle macchine di comprendere e rispondere adeguatamente alle emozioni umane è stata a lungo un luogo comune della fantascienza. Tuttavia, la ricerca nel mondo reale mostra che gli algoritmi di apprendimento automatico stanno diventando straordinariamente bravi nel riconoscere i segnali corporei che usiamo per suggerire come ci sentiamo dentro. E potrebbe portare a una frontiera completamente nuova delle interazioni uomo-macchina.
Non fraintenderci: le macchine non sono ancora così astute come l’essere umano medio quando si tratta di riconoscere i vari modi in cui esprimiamo le emozioni. Ma stanno migliorando molto. In un recente test condotto da ricercatori della Dublin City University, dell’University College di Londra, dell’Università di Brema e del Queen’s All’Università di Belfast, è stato chiesto a una combinazione di persone e algoritmi di riconoscere un assortimento di emozioni guardando il viso umano espressioni.
Imparentato
- A.I. sensibile alle emozioni è qui e potrebbe essere nel tuo prossimo colloquio di lavoro
- Gli scienziati utilizzano l’A.I. per creare un codice genetico umano artificiale
- Ho incontrato gli esseri umani artificiali di Samsung e mi hanno mostrato il futuro dell'intelligenza artificiale.
Le emozioni includevano felicità, tristezza, rabbia, sorpresa, paura e disgusto. Anche se nel complesso gli esseri umani hanno ancora prestazioni superiori alle macchine (con una precisione media del 73%, rispetto al 49%-62% a seconda dell'algoritmo), i punteggi ottenuti dai diversi robot testati hanno mostrato quanta strada hanno fatto in questo campo considerare. La cosa più impressionante è che la felicità e la tristezza erano due emozioni in cui le macchine potevano superare gli umani nell’indovinare, semplicemente guardando i volti. Questa è una pietra miliare significativa.
Video consigliati
Le emozioni contano
I ricercatori sono da tempo interessati a scoprire se le macchine possono identificare le emozioni da immagini fisse o riprese video. Ma è solo di recente che sono nate numerose startup prendere questa tecnologia come mainstream. Il recente studio ha testato i classificatori commerciali di macchine per il riconoscimento facciale sviluppati da Affectiva, CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision e VisageTechnologies. Tutti questi sono leader nel campo in crescita dell’informatica affettiva, ovvero insegnare ai computer a riconoscere le emozioni.
Il test è stato effettuato su 938 video, comprendenti manifestazioni emotive sia in posa che spontanee. La possibilità di un'ipotesi casuale corretta da parte dell'algoritmo per i sei tipi di emozione sarebbe di circa il 16%.
Damien Dupré, professore assistente presso la DCU Business School della Dublin City University, ha dichiarato a Digital Trends che il Il lavoro è importante perché arriva in un momento in cui la tecnologia di riconoscimento delle emozioni sta diventando sempre più affidabile su.
"Poiché i sistemi di apprendimento automatico stanno diventando più facili da sviluppare, molte aziende ora forniscono sistemi per altre aziende: principalmente aziende di marketing e automobilistiche", ha affermato Dupré. “Mentre [commettere] un errore nel riconoscimento delle emozioni per la ricerca accademica è, nella maggior parte dei casi, innocuo, la posta in gioco è diversa quando si impianta un sistema di riconoscimento delle emozioni in un'auto a guida autonoma, perché esempio. Pertanto abbiamo voluto confrontare i risultati di diversi sistemi”.
Un giorno potrebbe essere utilizzato per individuare cose come la sonnolenza o la rabbia al volante, che potrebbero far scattare un’auto semi-autonoma al volante.
L’idea di controllare un’auto utilizzando il riconoscimento facciale guidato dalle emozioni sembra, francamente, terrificante, soprattutto se sei il tipo di persona incline a esplosioni emotive sulla strada. Fortunatamente, non è esattamente così che viene utilizzato. Ad esempio, la società di riconoscimento delle emozioni Affectiva ha esplorato l’uso di telecamere per auto identificare le emozioni nei conducenti. Un giorno potrebbe essere utilizzato per individuare cose come la sonnolenza o la rabbia al volante, che potrebbero far scattare un’auto semi-autonoma a prendere il volante se un conducente viene ritenuto non idoneo alla guida.
I ricercatori dell’Università del Texas ad Austin, nel frattempo, hanno sviluppato una tecnologia che cura una playlist musicale “ultra personale” che si adatta ai mutevoli stati d’animo di ciascun utente. È stato pubblicato un articolo che descrive il lavoro, intitolato “La musica giusta al momento giusto: playlist personalizzate adattive basate sulla modellazione di sequenze”. pubblicato questo mese nella rivista MIS Quarterly. Descrive l'utilizzo dell'analisi delle emozioni che prevede non solo quali canzoni piaceranno agli utenti in base al loro umore, ma anche l'ordine migliore in cui riprodurle.
Esistono anche altre potenziali applicazioni per la tecnologia di riconoscimento delle emozioni. Amazon, ad esempio, ha recentemente iniziato a incorporare il tracciamento delle emozioni delle voci per i suoi prodotti Alexa assistente; consentendo all'A.I. A riconoscere quando un utente mostra frustrazione. Più in là, c'è la possibilità che ciò possa persino portare ad agenti artificiali pienamente reattivi emotivamente, come quello in Il film di Spike Jonze del 2013 Suo.
Nel recente lavoro di analisi delle emozioni basato sulle immagini, la percezione delle emozioni si basa sulle immagini. Tuttavia, come mostrano alcune di queste illustrazioni, ci sono altri modi in cui le macchine possono “annusare” l’emozione giusta al momento giusto.
"Quando per qualche motivo le informazioni sul viso non sono disponibili, possiamo analizzare le intonazioni vocali o osservare i gesti."
"Le persone generano moltissimi dati non verbali e fisiologici in un dato momento", ha affermato George Pliev, fondatore e socio amministratore di Laboratorio di neurodati, una delle società i cui algoritmi sono stati testati per lo studio sul riconoscimento facciale. “Oltre alle espressioni facciali, ci sono la voce, il linguaggio, i movimenti del corpo, la frequenza cardiaca e la frequenza respiratoria. Un approccio multimodale afferma che i dati comportamentali dovrebbero essere estratti da diversi canali e analizzati simultaneamente. I dati provenienti da un canale verificheranno e bilanceranno i dati ricevuti dagli altri. Ad esempio, quando per qualche motivo le informazioni sul viso non sono disponibili, possiamo analizzare le intonazioni vocali o osservare i gesti”.
Sfide future?
Tuttavia, ci sono delle sfide, come concordano tutti i soggetti coinvolti. Le emozioni non sono sempre facili da identificare; anche per le persone che li vivono.
“Se desideri insegnare all’A.I. come rilevare automobili, volti o emozioni, dovresti prima chiedere alle persone che aspetto hanno questi oggetti”, ha continuato Pliev. “Le loro risposte rappresenteranno la verità fondamentale. Quando si tratta di identificare automobili o volti, quasi il 100% delle persone intervistate sarebbe coerente nelle proprie risposte. Ma quando si tratta di emozioni, le cose non sono così semplici. Le espressioni emotive hanno molte sfumature e dipendono dal contesto: background culturale, differenze individuali, situazioni particolari in cui le emozioni vengono espresse. Per una persona, una particolare espressione facciale significherebbe una cosa, mentre un’altra persona potrebbe considerarla diversamente”.
Dupré è d'accordo con questo sentimento. "È possibile garantire che questi sistemi riconoscano l'emozione effettivamente provata da qualcuno?" Egli ha detto. “La risposta è no affatto, e non lo saranno mai! Riconoscono solo l’emozione che le persone decidono di esprimere – e la maggior parte delle volte ciò non corrisponde all’emozione provata. Quindi il messaggio da portare via è che [le macchine] non leggeranno mai… le tue stesse emozioni”.
Tuttavia, ciò non significa che la tecnologia non sarà utile. O impedire che diventino una parte importante della nostra vita negli anni a venire. E anche Damien Dupré lascia un po’ di margine di manovra quando si tratta di prevedere che le macchine lo faranno Mai ottenere qualcosa: “Beh, mai dire mai”, ha osservato.
Il documento di ricerca, “Riconoscimento delle emozioni negli esseri umani e nelle macchine utilizzando l’espressione facciale in posa e spontanea”, lo è disponibile per la lettura online qui.
Raccomandazioni degli editori
- La formula divertente: perché l'umorismo generato dalle macchine è il Santo Graal dell'A.I.
- Donne con Byte: il piano di Vivienne Ming per risolvere i “problemi umani disordinati” con l’intelligenza artificiale
- La nuova e selvaggia tecnica di “brainsourcing” addestra l’A.I. direttamente con le onde cerebrali umane
- Incontra Neon, l'essere umano artificiale di Samsung (che non assomiglia per niente a Bixby), al CES 2020
- Il miglior pilota di droni affronta un drone robot nel primo scontro uomo-macchina