Maszyny stają się zaskakująco dobre w rozpoznawaniu ludzkich emocji

Do niedawna musieliśmy wchodzić w interakcje z komputerami na ich własnych warunkach. Aby z nich skorzystać, ludzie musieli nauczyć się danych wejściowych zaprojektowanych tak, aby były zrozumiałe dla komputera: niezależnie od tego, czy było to wpisywanie poleceń, czy klikanie ikon za pomocą myszy. Ale wszystko się zmienia. Powstanie AI asystenci głosowi, tacy jak Siri i Alexa, umożliwiają maszynom rozumienie ludzi w taki sam sposób, w jaki normalnie współdziałaliby w prawdziwym świecie. Teraz badacze sięgają po kolejnego Świętego Graala: komputery potrafiące rozumieć emocje.

Zawartość

  • Emocje mają znaczenie
  • Zbliżające się wyzwania?

Niezależnie od tego, czy jest to robot T-1000 Arnolda Schwarzeneggera Terminatorze 2 lub Dane, android postać w Star Trek: Następne pokolenie, niezdolność maszyn do rozumienia ludzkich emocji i odpowiedniego reagowania na nie jest od dawna powszechnym tematem science fiction. Jednak badania w świecie rzeczywistym pokazują, że algorytmy uczenia maszynowego w rzeczywistości imponująco dobrze radzą sobie z rozpoznawaniem sygnałów cielesnych, których używamy, aby wskazać, jak się czujemy w środku. Może to prowadzić do zupełnie nowego pola interakcji człowiek-maszyna.

Afektywna

Nie zrozumcie nas źle: maszyny nie są jeszcze tak bystre jak przeciętny człowiek, jeśli chodzi o rozpoznawanie różnych sposobów wyrażania emocji. Ale jest im o wiele lepiej. W niedawnym teście przeprowadzonym przez naukowców z Dublin City University, University College London, University of Bremen i Queen’s Na Uniwersytecie w Belfaście poproszono grupę ludzi i algorytmów o rozpoznanie różnorodnych emocji na podstawie ludzkiej twarzy wyrażenia.

Powiązany

  • Sztuczna inteligencja wyczuwająca emocje już tu jest i może pojawić się podczas Twojej następnej rozmowy kwalifikacyjnej
  • Naukowcy wykorzystują sztuczną inteligencję do stworzenia sztucznego ludzkiego kodu genetycznego
  • Spotkałem sztucznych ludzi firmy Samsung, którzy pokazali mi przyszłość sztucznej inteligencji.

Emocje obejmowały szczęście, smutek, złość, zaskoczenie, strach i wstręt. Choć ogólnie rzecz biorąc, ludzie nadal przewyższają maszyny (ze średnią dokładnością 73% w porównaniu z 49% do 62% w zależności od algorytmu), wyniki uzyskane przez różne testowane boty pokazały, jak daleko w tym zaszły szacunek. Najbardziej imponujące było to, że szczęście i smutek to dwie emocje, w przypadku których maszyny mogą przewyższać ludzi w zgadywaniu, po prostu patrząc na twarze. To ważny kamień milowy.

Polecane filmy

Emocje mają znaczenie

Badaczy od dawna interesowało sprawdzenie, czy maszyny potrafią identyfikować emocje na podstawie nieruchomych obrazów lub materiału wideo. Jednak dopiero stosunkowo niedawno powstało wiele startupów przyjąć tę technologię do głównego nurtu. W niedawnym badaniu przetestowano komercyjne klasyfikatory maszyn do rozpoznawania twarzy opracowane przez firmę Affectiva, CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision i Technologie Visage. Wszyscy oni są liderami w rozwijającej się dziedzinie informatyki afektywnej, czyli nauczania komputerów rozpoznawania emocji.

Test przeprowadzono na 938 filmach, obejmujących zarówno pozowane, jak i spontaniczne przejawy emocji. Szansa na prawidłowe losowe odgadnięcie przez algorytm sześciu typów emocji wyniesie około 16%.

Damien Dupre, adiunkt w DCU Business School na Dublin City University, powiedział Digital Trends, że praca jest ważna, ponieważ pojawia się w czasie, gdy technologia rozpoznawania emocji staje się coraz bardziej niezawodna od.

„Ponieważ systemy uczenia maszynowego są coraz łatwiejsze w opracowywaniu, wiele firm dostarcza obecnie systemy innym firmom, głównie firmom marketingowym i motoryzacyjnym” – powiedział Dupré. „Podczas gdy [popełnienie] błędu w rozpoznawaniu emocji na potrzeby badań akademickich jest w większości przypadków nieszkodliwe, stawka jest inna w przypadku wszczepiania systemu rozpoznawania emocji w samochodzie autonomicznym, np przykład. Dlatego chcieliśmy porównać wyniki różnych systemów.”

Któregoś dnia będzie można go wykorzystać do wykrycia senności lub wściekłości na drodze, co może spowodować, że półautonomiczny samochód przejmie kierownicę.

Pomysł kontrolowania samochodu za pomocą rozpoznawania twarzy opartego na emocjach jest, szczerze mówiąc, przerażający – szczególnie jeśli jesteś osobą podatną na wybuchy emocji na drodze. Na szczęście nie jest to dokładnie sposób, w jaki jest używany. Na przykład firma Affectiva zajmująca się rozpoznawaniem emocji zbadała możliwość wykorzystania kamer samochodowych zidentyfikować emocje u kierowców. Któregoś dnia będzie można go wykorzystać do wykrycia senności lub wściekłości na drodze, co może spowodować, że półautonomiczny samochód przejmie kierownicę, jeśli kierowca zostanie uznany za niezdolnego do prowadzenia.

Tymczasem naukowcy z Uniwersytetu Teksasu w Austin opracowali technologię umożliwiającą tworzenie „ultra-osobistych” playlist muzycznych, które dostosowują się do zmieniających się nastrojów każdego użytkownika. Artykuł opisujący tę pracę, zatytułowany „Właściwa muzyka we właściwym czasie: adaptacyjne spersonalizowane listy odtwarzania oparte na modelowaniu sekwencji”, ukazał się opublikowany w tym miesiącu w czasopiśmie MIS Quarterly. Opisuje wykorzystanie analizy emocji, która przewiduje nie tylko, które utwory przypadną do gustu użytkownikom na podstawie ich nastroju, ale także najlepszą kolejność ich odtwarzania.

Afektywna

Istnieją również inne potencjalne zastosowania technologii rozpoznawania emocji. Na przykład Amazon bardzo niedawno zaczął włączać do swoich usług śledzenie emocji głosów Aleksa asystent; pozwalając A.I. Do rozpoznać, kiedy użytkownik okazuje frustrację. W dalszej perspektywie istnieje możliwość, że może to nawet doprowadzić do powstania w pełni reagujących emocjonalnie sztucznych czynników, takich jak te w Film Spike’a Jonze’a z 2013 roku Jej.

W niedawnej pracy dotyczącej analizy emocji opartej na obrazach wykrywanie emocji opiera się na obrazach. Jednakże, jak pokazują niektóre z tych ilustracji, istnieją inne sposoby, dzięki którym maszyny mogą „wywąchać” odpowiednią emocję we właściwym czasie.

„Kiedy z jakiegoś powodu informacje o twarzy są niedostępne, możemy przeanalizować intonację głosu lub przyjrzeć się gestom”.

„Ludzie w dowolnym momencie generują wiele danych niewerbalnych i fizjologicznych” – powiedział George Pliev, założyciel i partner zarządzający w Laboratorium Neurodanych, jednej z firm, której algorytmy zostały przetestowane na potrzeby badania rozpoznawania twarzy. „Oprócz mimiki twarzy liczy się głos, mowa, ruchy ciała, tętno i częstość oddechów. Podejście multimodalne zakłada, że ​​dane behawioralne powinny być wydobywane z różnych kanałów i analizowane jednocześnie. Dane pochodzące z jednego kanału zweryfikują i zbilansują dane otrzymane z pozostałych. Na przykład, gdy z jakiegoś powodu informacje o twarzy są niedostępne, możemy przeanalizować intonację głosu lub przyjrzeć się gestom”.

Zbliżające się wyzwania?

Istnieją jednak wyzwania – co potwierdzają wszyscy zaangażowani. Emocje nie zawsze są łatwe do zidentyfikowania; nawet dla osób, które ich doświadczają.

„Jeśli chcesz uczyć sztucznej inteligencji jak wykryć samochody, twarze czy emocje, należy najpierw zapytać ludzi, jak wyglądają te obiekty” – kontynuował Pliev. „Ich odpowiedzi będą przedstawiać podstawową prawdę. Jeśli chodzi o identyfikację samochodów lub twarzy, prawie 100% zapytanych osób udzieliłoby zgodnych odpowiedzi. Ale jeśli chodzi o emocje, sprawa nie jest taka prosta. Wyrażanie emocji ma wiele niuansów i zależy od kontekstu: tła kulturowego, różnic indywidualnych, konkretnych sytuacji, w których wyrażane są emocje. Dla jednej osoby określony wyraz twarzy będzie oznaczać jedno, podczas gdy inna osoba może postrzegać to inaczej”.

Dupré zgadza się z tą opinią. „Czy można zagwarantować, że te systemy rozpoznają emocje faktycznie odczuwane przez kogoś?” powiedział. „Odpowiedź nie brzmi wcale i nigdy nie będzie! Rozpoznają jedynie emocje, które ludzie decydują się wyrazić – i w większości przypadków nie odpowiadają one odczuwanym emocjom. Zatem przekaz na wynos jest taki, że [maszyny] nigdy nie przeczytają… twoich własnych emocji”.

Nie oznacza to jednak, że technologia ta nie będzie przydatna. Albo nie pozwól, aby w nadchodzących latach stało się to ważną częścią naszego życia. Nawet Damien Dupré pozostawia niewielkie pole do popisu, jeśli chodzi o własne przewidywania, że ​​maszyny tak zrobią nigdy coś osiągnąć: „No cóż, nigdy nie mów nigdy” – zauważył.

Artykuł badawczy zatytułowany „Rozpoznawanie emocji u ludzi i maszyn za pomocą pozowanego i spontanicznego wyrazu twarzy” jest do przeczytania online tutaj.

Zalecenia redaktorów

  • Zabawna formuła: dlaczego humor generowany maszynowo jest świętym Graalem sztucznej inteligencji?
  • Women with Byte: plan Vivienne Ming mający na celu rozwiązanie „bajerskich problemów ludzkich” za pomocą sztucznej inteligencji
  • Nowa, szalona technika „brainsourcingu” szkoli sztuczną inteligencję bezpośrednio z ludzkimi falami mózgowymi
  • Poznaj Neona, sztucznego człowieka firmy Samsung (który w niczym nie przypomina Bixby) na targach CES 2020
  • Najlepszy kierowca dronów mierzy się z robotem-dronem w pierwszym starciu człowieka z maszyną