Mesin menjadi sangat pandai dalam mengenali emosi manusia

Sampai saat ini kita harus berinteraksi dengan komputer dengan cara mereka sendiri. Untuk menggunakannya, manusia harus mempelajari masukan yang dirancang agar dapat dipahami oleh komputer: baik itu mengetik perintah atau mengklik ikon menggunakan mouse. Tapi banyak hal berubah. Kebangkitan A.I. asisten suara seperti Siri dan Alexa memungkinkan mesin memahami manusia sebagaimana mereka biasa berinteraksi di dunia nyata. Kini para peneliti sedang mencari Cawan Suci berikutnya: Komputer yang dapat memahami emosi.

Isi

  • Emosi penting
  • Tantangan ke depan?

Baik itu robot T-1000 Arnold Schwarzenegger Terminator 2 atau Data, itu android karakter di Star Trek: Generasi Selanjutnya, ketidakmampuan mesin untuk memahami dan merespons emosi manusia dengan baik telah lama menjadi kiasan fiksi ilmiah yang umum. Namun, penelitian di dunia nyata menunjukkan bahwa algoritme pembelajaran mesin benar-benar semakin baik dalam mengenali isyarat tubuh yang kita gunakan untuk memberi petunjuk tentang perasaan kita di dalam. Dan hal ini dapat mengarah pada batasan baru dalam interaksi manusia-mesin.

Afektif

Jangan salah paham: Mesin belum secerdas manusia pada umumnya dalam mengenali berbagai cara kita mengekspresikan emosi. Tapi mereka menjadi jauh lebih baik. Dalam tes terbaru yang dilakukan oleh para peneliti di Dublin City University, University College London, University of Bremen dan Queen’s Universitas Belfast, kombinasi manusia dan algoritma diminta mengenali bermacam-macam emosi dengan melihat wajah manusia ekspresi.

Terkait

  • A.I. ada di sini, dan bisa jadi dalam wawancara kerja Anda berikutnya
  • Para ilmuwan menggunakan A.I. untuk membuat kode genetik manusia buatan
  • Saya bertemu manusia buatan Samsung, dan mereka menunjukkan masa depan A.I.

Emosi tersebut meliputi kebahagiaan, kesedihan, kemarahan, keterkejutan, ketakutan, dan rasa jijik. Meskipun kinerja manusia masih mengungguli mesin secara keseluruhan (dengan akurasi rata-rata 73%, dibandingkan dengan 49% hingga 62% tergantung pada algoritmenya), skor yang diperoleh dari berbagai bot yang diuji menunjukkan seberapa jauh kemajuan mereka dalam hal ini pandangan. Yang paling mengesankan, kebahagiaan dan kesedihan adalah dua emosi yang membuat mesin bisa mengungguli manusia dalam menebak, hanya dengan melihat wajah. Itu merupakan pencapaian yang signifikan.

Video yang Direkomendasikan

Emosi penting

Para peneliti telah lama tertarik untuk mengetahui apakah mesin dapat mengidentifikasi emosi dari gambar diam atau rekaman video. Namun baru belakangan ini sejumlah startup bermunculan mengambil arus utama teknologi ini. Studi baru-baru ini menguji pengklasifikasi mesin pengenalan wajah komersial yang dikembangkan oleh Affectiva, CrowdEmotion, FaceVideo, Emotient, Microsoft, MorphCast, Neurodatalab, VicarVision, dan Teknologi Visage. Semua ini adalah pemimpin dalam bidang komputasi afektif yang sedang berkembang, yaitu mengajarkan komputer untuk mengenali emosi.

Tes tersebut dilakukan pada 938 video, termasuk penampilan emosi yang dipotret dan spontan. Peluang tebakan acak yang benar berdasarkan algoritma untuk enam jenis emosi adalah sekitar 16%.

Damien Dupre, Asisten Profesor di DCU Business School Universitas Dublin City, mengatakan kepada Digital Trends bahwa Pekerjaan itu penting karena terjadi pada saat teknologi pengenalan emosi semakin diandalkan pada.

“Karena sistem pembelajaran mesin menjadi lebih mudah untuk dikembangkan, banyak perusahaan kini menyediakan sistem untuk perusahaan lain: terutama perusahaan pemasaran dan otomotif,” kata Dupré. “Padahal [membuat] kesalahan dalam pengenalan emosi untuk penelitian akademis, sering kali, tidak berbahaya, taruhannya berbeda ketika menanamkan sistem pengenalan emosi pada mobil self-driving contoh. Oleh karena itu kami ingin membandingkan hasil dari sistem yang berbeda.”

Suatu hari nanti bisa digunakan untuk mendeteksi hal-hal seperti kantuk atau kemarahan di jalan, yang mungkin memicu mobil semi-otonom mengambil alih kemudi.

Gagasan mengendalikan mobil menggunakan pengenalan wajah yang digerakkan oleh emosi, sejujurnya, terdengar menakutkan - terutama jika Anda adalah tipe orang yang rentan terhadap ledakan emosi di jalan. Untungnya, penggunaannya tidak seperti itu. Misalnya, perusahaan pengenalan emosi Affectiva telah mengeksplorasi penggunaan kamera di dalam mobil mengidentifikasi emosi pada pengemudi. Suatu hari nanti bisa digunakan untuk mendeteksi hal-hal seperti kantuk atau kemarahan di jalan, yang mungkin memicu mobil semi-otonom mengambil alih kemudi jika pengemudi dianggap tidak sehat untuk mengemudi.

Sementara itu, para peneliti di Universitas Texas di Austin telah mengembangkan teknologi yang menyusun playlist musik “ultra-pribadi” yang beradaptasi dengan perubahan suasana hati setiap pengguna. Sebuah makalah yang mendeskripsikan karya tersebut, berjudul “Musik yang Tepat di Waktu yang Tepat: Daftar Putar yang Dipersonalisasi Adaptif Berdasarkan Pemodelan Urutan,” diterbitkan diterbitkan bulan ini dalam jurnal MIS Quarterly. Ini menjelaskan penggunaan analisis emosi yang memprediksi tidak hanya lagu mana yang akan menarik bagi pengguna berdasarkan suasana hati mereka, namun juga urutan terbaik untuk memainkannya.

Afektif

Ada juga penerapan potensial lainnya untuk teknologi pengenalan emosi. Amazon, misalnya, baru-baru ini mulai menerapkan pelacakan emosi pada suara Alexa asisten; mengizinkan A.I. ke mengenali saat pengguna menunjukkan rasa frustrasi. Lebih jauh lagi, ada kemungkinan hal ini bahkan dapat mengarah pada agen buatan yang sepenuhnya responsif secara emosional, seperti itu Film Spike Jonze tahun 2013 Dia.

Dalam penelitian analisis emosi berbasis gambar baru-baru ini, penginderaan emosi didasarkan pada gambar. Namun, seperti yang ditunjukkan oleh beberapa ilustrasi ini, ada cara lain agar mesin dapat “mengendus” emosi yang tepat pada waktu yang tepat.

“Ketika informasi wajah karena alasan tertentu tidak tersedia, kami dapat menganalisis intonasi vokal atau melihat gerak tubuh.”

“Orang-orang menghasilkan banyak data non-verbal dan fisiologis pada saat tertentu,” kata George Pliev, pendiri dan mitra pengelola di Laboratorium Neurodata, salah satu perusahaan yang algoritmanya diuji untuk studi pengenalan wajah. “Selain ekspresi wajah, ada suara, ucapan, gerak tubuh, detak jantung, dan laju pernapasan. Pendekatan multimodal menyatakan bahwa data perilaku harus diambil dari saluran yang berbeda dan dianalisis secara bersamaan. Data yang berasal dari satu saluran akan memverifikasi dan menyeimbangkan data yang diterima dari saluran lainnya. Misalnya, ketika informasi wajah karena alasan tertentu tidak tersedia, kami dapat menganalisis intonasi vokal atau melihat gerak tubuh.”

Tantangan ke depan?

Namun, ada tantangannya – dan semua pihak yang terlibat sepakat. Emosi tidak selalu mudah dikenali; bahkan bagi orang yang mengalaminya.

“Jika Anda ingin mengajar A.I. Cara mendeteksi mobil, wajah atau emosi, sebaiknya tanyakan dulu kepada orang-orang seperti apa benda-benda tersebut,” lanjut Pliev. “Tanggapan mereka akan mewakili kebenaran yang ada. Ketika mengidentifikasi mobil atau wajah, hampir 100% orang yang ditanyai akan memberikan jawaban yang konsisten. Namun jika menyangkut emosi, segalanya tidak sesederhana itu. Ekspresi emosi memiliki banyak nuansa dan bergantung pada konteks: latar belakang budaya, perbedaan individu, situasi tertentu di mana emosi diungkapkan. Bagi satu orang, ekspresi wajah tertentu memiliki arti yang berbeda, sementara orang lain mungkin menganggapnya berbeda.”

Dupré setuju dengan sentimen tersebut. “Dapatkah sistem ini [dijamin] mengenali emosi yang sebenarnya dirasakan seseorang?” dia berkata. “Jawabannya adalah tidak sama sekali, dan tidak akan pernah ada! Mereka hanya mengenali emosi yang ingin diungkapkan orang - dan sering kali hal itu tidak sesuai dengan emosi yang dirasakan. Jadi pesan yang dapat diambil adalah bahwa [mesin] tidak akan pernah membaca… emosi Anda sendiri.”

Meski begitu, bukan berarti teknologi tersebut tidak berguna. Atau menghentikannya agar tidak menjadi bagian besar dalam hidup kita di tahun-tahun mendatang. Dan bahkan Damien Dupré menyisakan sedikit ruang gerak ketika sampai pada prediksinya sendiri bahwa mesin akan melakukannya tidak pernah mencapai sesuatu: “Yah, jangan pernah berkata tidak pernah,” katanya.

Makalah penelitian, “Pengenalan emosi pada manusia dan mesin menggunakan ekspresi wajah berpose dan spontan,” adalah tersedia untuk dibaca online di sini.

Rekomendasi Editor

  • Rumus lucunya: Mengapa humor yang dihasilkan mesin adalah cawan suci A.I.
  • Women with Byte: Rencana Vivienne Ming untuk memecahkan 'masalah manusia yang berantakan' dengan A.I.
  • Teknik 'brainsourcing' baru yang liar melatih A.I. langsung dengan gelombang otak manusia
  • Temui Neon, manusia buatan Samsung (yang tidak seperti Bixby), di CES 2020
  • Pembalap drone papan atas menghadapi robot drone dalam bentrokan manusia-vs-mesin yang pertama