A.I. การอ่านใจ สามารถระบุได้ว่าเพลงใดกำลังเล่นอยู่ในหัวของคุณ

พวกเราส่วนใหญ่เคยใช้ แอพอย่าง Shazamซึ่งสามารถระบุเพลงได้เมื่อเรายกโทรศัพท์ไว้ใกล้ลำโพง แต่จะเกิดอะไรขึ้นหากเป็นไปได้ที่แอปจะระบุเพลงโดยอิงจากรูปแบบความคิดของคุณ เป็นไปไม่ได้? อาจไม่ใช่ตามการวิจัยชิ้นใหม่ที่ดำเนินการโดยนักวิจัยจากมหาวิทยาลัยแคลิฟอร์เนียเบิร์กลีย์

ในปี 2014 นักวิจัย Brian Pasley และเพื่อนร่วมงานใช้อัลกอริธึมการเรียนรู้เชิงลึกและการทำงานของสมอง ซึ่งวัดด้วยอิเล็กโทรด เพื่อเปลี่ยนความคิดของบุคคลให้เป็นคำพูดที่สังเคราะห์ทางดิจิทัล ซึ่งทำได้โดยการวิเคราะห์คลื่นสมองของบุคคลในขณะที่พูด เพื่อถอดรหัสความเชื่อมโยงระหว่างคำพูดและการทำงานของสมอง

วิดีโอแนะนำ

ก้าวไปข้างหน้าไม่กี่ปี และขณะนี้ทีมงานได้ปรับปรุงการวิจัยก่อนหน้านี้และนำสิ่งที่ค้นพบมาประยุกต์ใช้กับดนตรี โดยเฉพาะอย่างยิ่ง พวกเขาสามารถทำนายเสียงที่นักเปียโนกำลังคิดได้อย่างแม่นยำ (แม่นยำกว่าการศึกษาครั้งก่อนถึง 50 เปอร์เซ็นต์) โดยพิจารณาจากการทำงานของสมอง

ที่เกี่ยวข้อง

  • สามารถเอไอ เอาชนะวิศวกรมนุษย์ในการออกแบบไมโครชิปได้หรือ? Google คิดเช่นนั้น
  • สถาปัตยกรรมอัลกอริทึม: เราควรปล่อยให้ A.I. ออกแบบอาคารให้เราเหรอ?
  • เหตุใดการสอนหุ่นยนต์ให้เล่นซ่อนหาอาจเป็นกุญแจสำคัญของ A.I ยุคถัดไป

“ในระหว่างการรับรู้ทางหู เมื่อคุณฟังเสียงต่างๆ เช่น คำพูดหรือดนตรี เราก็รู้สิ่งนั้นแน่นอน ส่วนของเปลือกสมองส่วนการได้ยินจะสลายเสียงเหล่านี้เป็นความถี่เสียง เช่น ต่ำหรือสูง โทนเสียง” พาสลีย์ บอกกับ Digital Trends “เราได้ทดสอบว่าพื้นที่สมองเดียวกันเหล่านี้ประมวลผลเสียงที่จินตนาการได้ในลักษณะเดียวกับที่คุณถ่ายทอดเสียงเสียงของคุณเองออกมาภายใน หรือจินตนาการถึงเสียงดนตรีคลาสสิกในห้องเงียบ ๆ เราพบว่ามีการทับซ้อนกันมาก แต่ยังมีความแตกต่างที่ชัดเจนในการที่สมองนำเสนอเสียงเพลงในจินตนาการ ด้วยการสร้างแบบจำลองแมชชีนเลิร์นนิงของการเป็นตัวแทนทางประสาทของเสียงที่จินตนาการ เราใช้แบบจำลองเพื่อคาดเดาด้วยความแม่นยำพอสมควรว่าเสียงใดที่จินตนาการได้ในแต่ละช่วงเวลา"

ในการศึกษานี้ ทีมงานได้บันทึกการทำงานของสมองของนักเปียโนเมื่อเขาเล่นเพลงบนคีย์บอร์ดไฟฟ้า การทำเช่นนี้ทำให้พวกเขาสามารถจับคู่ทั้งรูปแบบสมองและตัวโน้ตที่เล่นได้ จากนั้นพวกเขาก็ทำการทดลองอีกครั้ง แต่ปิดเสียงคีย์บอร์ดและขอให้นักดนตรีจินตนาการถึงโน้ตในขณะที่เขาเล่น การฝึกอบรมนี้ทำให้พวกเขาสามารถสร้างอัลกอริธึมการทำนายเพลงได้

“เป้าหมายระยะยาวของการวิจัยของเราคือการพัฒนาอัลกอริธึมสำหรับอุปกรณ์เทียมในการพูดเพื่อฟื้นฟูการสื่อสารในบุคคลที่เป็นอัมพาตที่ไม่สามารถพูดได้” Pasley กล่าว “เรายังห่างไกลจากการบรรลุเป้าหมายดังกล่าว แต่การศึกษาครั้งนี้ถือเป็นก้าวสำคัญที่จะก้าวไปข้างหน้า มันแสดงให้เห็นว่าสัญญาณประสาทระหว่างการถ่ายภาพด้วยเสียงนั้นแข็งแกร่งและแม่นยำเพียงพอ เพื่อใช้ในอัลกอริธึมการเรียนรู้ของเครื่องที่สามารถทำนายสัญญาณเสียงจากสมองที่วัดได้ กิจกรรม."

กระดาษอธิบายการทำงานคือ ซึ่งตีพิมพ์เมื่อเร็วๆ นี้ในวารสาร Cerebral Cortex.

คำแนะนำของบรรณาธิการ

  • นี่คือสิ่งที่ A.I. วิเคราะห์แนวโน้ม คิดว่าจะเป็นสิ่งที่ยิ่งใหญ่ต่อไปในเทคโนโลยี
  • อ่าน 'พระคัมภีร์สังเคราะห์' ที่สวยงามน่าขนลุกของ A.I. ที่คิดว่าเป็นพระเจ้า
  • A.I. การตรวจจับอารมณ์ มาแล้ว และอาจอยู่ในการสัมภาษณ์งานครั้งถัดไปของคุณ
  • นักวิทยาศาสตร์ใช้ A.I. เพื่อสร้างรหัสพันธุกรรมมนุษย์เทียม
  • BigSleep A.I. ก็เหมือนกับ Google Image Search สำหรับรูปภาพที่ยังไม่มี

อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร

หมวดหมู่

ล่าสุด

NASA ทดสอบ Mini Rover อัตโนมัติก่อนภารกิจทางจันทรคติ

NASA ทดสอบ Mini Rover อัตโนมัติก่อนภารกิจทางจันทรคติ

ของนาซ่า รถแลนด์โรเวอร์ความเพียรซึ่งขณะนี้กำลัง...

วิธีดูการทดสอบจรวดครั้งต่อไปของ Blue Origin ในวันพุธ

วิธีดูการทดสอบจรวดครั้งต่อไปของ Blue Origin ในวันพุธ

เว็บคาสต์ใหม่ Shepard Mission NS-15ลูกเรือจะปีน...

ชมชีวิตสถานีอวกาศหนึ่งปีที่ถูกบีบให้เหลือเพียง 60 วินาที

ชมชีวิตสถานีอวกาศหนึ่งปีที่ถูกบีบให้เหลือเพียง 60 วินาที

นักบินอวกาศส่วนใหญ่ที่มาเยือนสถานีอวกาศนานาชาติ...