เครื่องจักรสามารถจดจำอารมณ์ของมนุษย์ได้ดีขึ้นมาก

จนกระทั่งเมื่อไม่นานมานี้ เราจำเป็นต้องโต้ตอบกับคอมพิวเตอร์ตามเงื่อนไขของตัวเอง ในการใช้งาน มนุษย์ต้องเรียนรู้อินพุตที่ออกแบบมาเพื่อให้คอมพิวเตอร์เข้าใจ ไม่ว่าจะเป็นการพิมพ์คำสั่งหรือการคลิกไอคอนโดยใช้เมาส์ แต่สิ่งต่าง ๆ กำลังเปลี่ยนแปลง การเติบโตของ A.I. ผู้ช่วยด้านเสียงอย่าง Siri และ Alexa ช่วยให้เครื่องจักรเข้าใจมนุษย์ได้เหมือนกับที่ปกติแล้วพวกมันโต้ตอบกันในโลกแห่งความเป็นจริง ขณะนี้นักวิจัยกำลังเข้าถึงจอกศักดิ์สิทธิ์ตัวต่อไป: คอมพิวเตอร์ที่สามารถเข้าใจอารมณ์ได้

สารบัญ

  • อารมณ์มีความสำคัญ
  • ความท้าทายข้างหน้า?

ไม่ว่าจะเป็นหุ่นยนต์ T-1000 ของ Arnold Schwarzenegger เข้ามา เทอร์มิเนเตอร์ 2 หรือข้อมูล หุ่นยนต์ ตัวละครใน สตาร์ เทรค: รุ่นต่อไปการที่เครื่องจักรไม่สามารถเข้าใจและตอบสนองต่ออารมณ์ของมนุษย์ได้อย่างเหมาะสมนั้นถือเป็นเรื่องไซไฟที่พบบ่อยมานานแล้ว อย่างไรก็ตาม การวิจัยในโลกแห่งความเป็นจริงแสดงให้เห็นว่าอัลกอริธึมการเรียนรู้ของเครื่องเริ่มดีขึ้นอย่างน่าประทับใจในการจดจำสัญญาณทางร่างกายที่เราใช้เพื่อบอกเป็นนัยถึงความรู้สึกภายในของเรา และอาจนำไปสู่ขอบเขตใหม่ของการปฏิสัมพันธ์ระหว่างมนุษย์กับเครื่องจักร

อาฟเฟกติวา

อย่าเข้าใจเราผิด: เครื่องจักรยังไม่ฉลาดเท่ากับมนุษย์ทั่วไปเมื่อต้องรับรู้ถึงวิธีต่างๆ ที่เราแสดงอารมณ์ แต่พวกเขากำลังดีขึ้นมาก ในการทดสอบล่าสุดที่ดำเนินการโดยนักวิจัยจาก Dublin City University, University College London, University of Bremen และ Queen's มหาวิทยาลัยเบลฟาสต์ การรวมกันของผู้คนและอัลกอริธึมถูกขอให้จดจำอารมณ์หลากหลายโดยดูจากใบหน้าของมนุษย์ การแสดงออก

ที่เกี่ยวข้อง

  • A.I. การตรวจจับอารมณ์ มาแล้ว และอาจอยู่ในการสัมภาษณ์งานครั้งถัดไปของคุณ
  • นักวิทยาศาสตร์ใช้ A.I. เพื่อสร้างรหัสพันธุกรรมมนุษย์เทียม
  • ฉันได้พบกับมนุษย์เทียมของ Samsung และพวกเขาก็แสดงให้ฉันเห็นอนาคตของ A.I.

อารมณ์ต่างๆ ได้แก่ ความสุข ความเศร้า ความโกรธ ความประหลาดใจ ความกลัว และความรังเกียจ ในขณะที่มนุษย์ยังคงมีประสิทธิภาพเหนือกว่าเครื่องจักรโดยรวม (ด้วยความแม่นยำโดยเฉลี่ย 73% เทียบกับ 49% ถึง 62% ขึ้นอยู่กับอัลกอริธึม) คะแนนที่ได้รับจากบอทต่างๆ ที่ทดสอบแสดงให้เห็นว่าพวกเขามาได้ไกลแค่ไหนในเรื่องนี้ คำนึงถึง. สิ่งที่น่าประทับใจที่สุดคือความสุขและความเศร้าเป็นสองอารมณ์ที่เครื่องจักรสามารถคาดเดาได้ดีกว่ามนุษย์เพียงแค่มองใบหน้าเท่านั้น นั่นเป็นเหตุการณ์สำคัญ

วิดีโอแนะนำ

อารมณ์มีความสำคัญ

นักวิจัยมีความสนใจมานานแล้วว่าเครื่องจักรสามารถระบุอารมณ์จากภาพนิ่งหรือฟุตเทจวิดีโอได้หรือไม่ แต่เมื่อไม่นานมานี้ มีสตาร์ทอัพจำนวนหนึ่งผุดขึ้นมา นำเทคโนโลยีนี้ไปใช้เป็นหลัก. การศึกษาล่าสุดได้ทดสอบเครื่องแยกประเภทเครื่องจดจำใบหน้าเชิงพาณิชย์ที่พัฒนาโดย Affectiva CrowdEmotion, FaceVideo, อารมณ์, Microsoft, MorphCast, Neurodatalab, VicarVision และ Visageเทคโนโลยี ทั้งหมดนี้เป็นผู้นำในสาขาคอมพิวเตอร์เชิงอารมณ์ที่กำลังเติบโต หรือที่รู้จักในชื่อ การสอนคอมพิวเตอร์ให้จดจำอารมณ์

การทดสอบดำเนินการกับวิดีโอ 938 รายการ รวมถึงการแสดงอารมณ์ทั้งท่าทางและอารมณ์ที่เกิดขึ้นเอง โอกาสในการเดาสุ่มที่ถูกต้องโดยอัลกอริธึมสำหรับอารมณ์ทั้งหกประเภทจะอยู่ที่ประมาณ 16%

เดเมียน ดูเพรผู้ช่วยศาสตราจารย์จาก DCU Business School ของมหาวิทยาลัย Dublin City บอกกับ Digital Trends ว่า งานมีความสำคัญเพราะเป็นช่วงที่เทคโนโลยีการจดจำอารมณ์เริ่มมีการพึ่งพามากขึ้น เมื่อ.

“เนื่องจากระบบการเรียนรู้ของเครื่องเริ่มพัฒนาได้ง่ายขึ้น ปัจจุบันบริษัทจำนวนมากจึงจัดหาระบบให้กับบริษัทอื่นๆ โดยส่วนใหญ่เป็นบริษัทการตลาดและยานยนต์” Dupré กล่าว “ในขณะที่ [การทำ] ข้อผิดพลาดในการจดจำอารมณ์สำหรับการวิจัยเชิงวิชาการโดยส่วนใหญ่แล้ว ไม่เป็นอันตราย การเดิมพันจะแตกต่างออกไปเมื่อปลูกฝังระบบจดจำอารมณ์ในรถยนต์ที่ขับเคลื่อนด้วยตนเอง ตัวอย่าง. ดังนั้นเราจึงต้องการเปรียบเทียบผลลัพธ์ของระบบต่างๆ”

วันหนึ่งอาจถูกนำมาใช้เพื่อระบุสิ่งต่างๆ เช่น อาการง่วงนอนหรือความโกรธบนท้องถนน ซึ่งอาจทำให้รถกึ่งอัตโนมัติขึ้นพวงมาลัยได้

ความคิดในการควบคุมรถโดยใช้เสียงการจดจำใบหน้าที่ขับเคลื่อนด้วยอารมณ์ พูดตรงๆ น่ากลัว โดยเฉพาะอย่างยิ่งหากคุณเป็นคนที่มีแนวโน้มที่จะระเบิดอารมณ์บนท้องถนน โชคดีที่นั่นไม่ใช่วิธีการใช้ที่แน่นอน ตัวอย่างเช่น บริษัท Affectiva ซึ่งเป็นบริษัทจดจำอารมณ์ได้สำรวจการใช้กล้องในรถยนต์เพื่อ ระบุอารมณ์ในผู้ขับขี่. วันหนึ่งอาจถูกนำมาใช้เพื่อระบุสิ่งต่างๆ เช่น อาการง่วงนอนหรือความโกรธบนท้องถนน ซึ่งอาจทำให้รถกึ่งอิสระขึ้นพวงมาลัยได้ หากถือว่าคนขับไม่เหมาะที่จะขับขี่

นักวิจัยจากมหาวิทยาลัยเท็กซัสที่ออสตินได้พัฒนาเทคโนโลยีที่รวบรวมรายการเพลง "ส่วนตัวเป็นพิเศษ" ที่ปรับให้เข้ากับอารมณ์ที่เปลี่ยนแปลงของผู้ใช้แต่ละคน บทความที่อธิบายผลงานชื่อ “เพลงที่ใช่ในเวลาที่เหมาะสม: เพลย์ลิสต์ที่ปรับเปลี่ยนในแบบของคุณตามแบบจำลองลำดับ” คือ เผยแพร่ในเดือนนี้ ในวารสาร MIS รายไตรมาส โดยอธิบายโดยใช้การวิเคราะห์อารมณ์ที่คาดการณ์ไม่เพียงแต่ว่าเพลงใดจะดึงดูดผู้ใช้ตามอารมณ์ของพวกเขา แต่ยังเรียงลำดับที่ดีที่สุดในการเล่นด้วย

อาฟเฟกติวา

ยังมีแอปพลิเคชั่นที่เป็นไปได้อื่น ๆ สำหรับเทคโนโลยีการจดจำอารมณ์เช่นกัน ตัวอย่างเช่น Amazon เพิ่งเริ่มรวมการติดตามอารมณ์ของเสียงไว้ด้วย อเล็กซา ผู้ช่วย; ปล่อยให้ A.I. ถึง รับรู้เมื่อผู้ใช้แสดงความคับข้องใจ. นอกจากนี้ ยังมีความเป็นไปได้ที่สิ่งนี้อาจนำไปสู่สารเทียมที่ตอบสนองทางอารมณ์ได้เต็มรูปแบบ เช่นนั้นใน ภาพยนตร์ปี 2013 ของ Spike Jonze ของเธอ.

ในงานวิเคราะห์อารมณ์ด้วยรูปภาพล่าสุด การตรวจจับอารมณ์จะขึ้นอยู่กับรูปภาพ อย่างไรก็ตาม ดังที่ภาพประกอบบางส่วนแสดงให้เห็น มีวิธีอื่นที่เครื่องจักรสามารถ "สูดดม" อารมณ์ที่ถูกต้องในเวลาที่เหมาะสมได้

“เมื่อข้อมูลใบหน้าไม่พร้อมใช้งานด้วยเหตุผลบางประการ เราสามารถวิเคราะห์น้ำเสียงหรือดูท่าทางได้”

“ผู้คนกำลังสร้างข้อมูลที่ไม่ใช่คำพูดและสรีรวิทยาจำนวนมากในช่วงเวลาใดก็ตาม” George Pliev ผู้ก่อตั้งและหุ้นส่วนผู้จัดการของ กล่าว ห้องปฏิบัติการนิวโรดาต้าหนึ่งในบริษัทที่ได้รับการทดสอบอัลกอริธึมเพื่อการศึกษาการจดจำใบหน้า “นอกจากสีหน้าแล้ว ยังมีเสียง คำพูด การเคลื่อนไหวของร่างกาย อัตราการเต้นของหัวใจ และอัตราการหายใจอีกด้วย แนวทางหลายรูปแบบระบุว่าข้อมูลพฤติกรรมควรดึงมาจากช่องทางต่างๆ และวิเคราะห์ไปพร้อมๆ กัน ข้อมูลที่มาจากช่องทางหนึ่งจะตรวจสอบและปรับสมดุลข้อมูลที่ได้รับจากช่องทางอื่น ตัวอย่างเช่น เมื่อข้อมูลใบหน้าไม่พร้อมใช้งานด้วยเหตุผลบางประการ เราสามารถวิเคราะห์น้ำเสียงหรือดูท่าทางได้”

ความท้าทายข้างหน้า?

อย่างไรก็ตาม ยังมีความท้าทายอยู่ — ตามที่ทุกคนที่เกี่ยวข้องเห็นพ้องต้องกัน อารมณ์ไม่ใช่เรื่องง่ายที่จะระบุ แม้กระทั่งกับผู้คนที่ประสบกับสิ่งเหล่านี้

“หากคุณต้องการสอน A.I. วิธีตรวจจับรถยนต์ ใบหน้า หรืออารมณ์ คุณควรถามผู้คนก่อนว่าวัตถุเหล่านี้มีลักษณะอย่างไร” Pliev กล่าวต่อ “คำตอบของพวกเขาจะเป็นตัวแทนของความจริงภาคพื้นดิน เมื่อพูดถึงการระบุรถยนต์หรือใบหน้า ผู้คนเกือบ 100% ที่ถามจะตอบกลับอย่างสม่ำเสมอ แต่เมื่อพูดถึงอารมณ์ สิ่งต่างๆ ก็ไม่ง่ายอย่างนั้น การแสดงออกทางอารมณ์มีความแตกต่างกันมากมายและขึ้นอยู่กับบริบท เช่น ภูมิหลังทางวัฒนธรรม ความแตกต่างระหว่างบุคคล สถานการณ์เฉพาะที่แสดงอารมณ์ออกมา สำหรับคนหนึ่ง การแสดงออกทางสีหน้าจะมีความหมายอย่างหนึ่ง ในขณะที่อีกคนหนึ่งอาจมองว่าแตกต่างออกไป”

Dupré เห็นด้วยกับความรู้สึกนี้ “ระบบเหล่านี้ [รับประกัน] ว่าจะรับรู้ถึงอารมณ์ความรู้สึกของใครบางคนจริง ๆ ได้ไหม” เขาพูดว่า. “คำตอบไม่ใช่เลย และพวกเขาจะไม่มีวันเป็น! พวกเขารับรู้เพียงอารมณ์ที่ผู้คนตัดสินใจแสดงออกมา และส่วนใหญ่ไม่สอดคล้องกับอารมณ์ความรู้สึก ดังนั้นข้อความสำคัญก็คือ [เครื่องจักร] จะไม่อ่าน … อารมณ์ของคุณเอง”

แต่นั่นไม่ได้หมายความว่าเทคโนโลยีจะไม่มีประโยชน์ หรือหยุดยั้งไม่ให้กลายเป็นส่วนสำคัญในชีวิตของเราในปีต่อ ๆ ไป และแม้แต่ Damien Dupré ก็ยังมีช่องว่างเล็กน้อยเมื่อพูดถึงการคาดการณ์ของเขาเองว่าเครื่องจักรจะทำได้ ไม่เคย บรรลุบางสิ่งบางอย่าง: “อย่าพูดว่าไม่เคยเลย” เขาตั้งข้อสังเกต

บทความวิจัยเรื่อง “การจดจำอารมณ์ในมนุษย์และเครื่องจักรโดยใช้การแสดงออกทางสีหน้าและท่าทางที่เกิดขึ้นเอง” คือ สามารถอ่านออนไลน์ได้ที่นี่.

คำแนะนำของบรรณาธิการ

  • สูตรตลก: ทำไมอารมณ์ขันที่สร้างโดยเครื่องจักรจึงเป็นจอกศักดิ์สิทธิ์ของ A.I.
  • Women with Byte: แผนการของวิเวียน หมิงในการแก้ปัญหา 'ปัญหายุ่งวุ่นวายของมนุษย์' ด้วย A.I.
  • เทคนิค 'การระดมสมอง' ใหม่สุดล้ำฝึก A.I. โดยตรงกับคลื่นสมองของมนุษย์
  • พบกับ Neon มนุษย์ประดิษฐ์ของ Samsung (ซึ่งไม่มีอะไรเหมือน Bixby) ในงาน CES 2020
  • นักแข่งโดรนชั้นนำปะทะหุ่นยนต์โดรนในการปะทะกันครั้งแรกระหว่างมนุษย์กับเครื่องจักร

หมวดหมู่

ล่าสุด

ตัวอย่างที่ดีที่สุด (และแย่ที่สุด) ของ Nvidia RTX ในเกมพีซี

ตัวอย่างที่ดีที่สุด (และแย่ที่สุด) ของ Nvidia RTX ในเกมพีซี

Nvidia เพิ่งผ่านเหตุการณ์สำคัญครั้งใหญ่กับ RTX ...

Outcast: A New Beginning เข้าใจเกมโอเพ่นเวิลด์ได้ดีมาก

Outcast: A New Beginning เข้าใจเกมโอเพ่นเวิลด์ได้ดีมาก

ต้นตำรับ คนที่ถูกขับไล่ ล้ำหน้าไปมากเมื่อเปิดตั...

ตัวอย่างที่ดีที่สุด (และแย่ที่สุด) ของ Nvidia RTX ในเกมพีซี

ตัวอย่างที่ดีที่สุด (และแย่ที่สุด) ของ Nvidia RTX ในเกมพีซี

Nvidia เพิ่งผ่านเหตุการณ์สำคัญครั้งใหญ่กับ RTX ...