เราจะรู้ได้อย่างไรว่า AI มีความรู้สึกจริง ๆ แล้ว?

วิศวกรอาวุโสของ Google Blake Lemoine หัวหน้าฝ่ายเทคนิคด้านเมตริกและการวิเคราะห์สำหรับฟีดการค้นหาของบริษัท ถูกพักงานโดยได้รับค่าจ้างเมื่อต้นเดือนนี้ สิ่งนี้เกิดขึ้นหลังจากที่ Lemoine เริ่มเผยแพร่ข้อความที่ตัดตอนมาจากบทสนทนาที่เกี่ยวข้องกับแชทบอท LaMDA ของ Google ซึ่งเขาอ้างว่าได้พัฒนาความรู้สึก

สารบัญ

  • ปัญหาความรู้สึก
  • ความรู้สึกคืออะไร?
  • การทดสอบผลลัพธ์
  • ผ่านการทดสอบ
  • วิญญาณอยู่ในเครื่อง
  • ห้องจีน
  • ความรู้สึกที่ชาญฉลาดยิ่ง

ในหนึ่งเดียว การสนทนาตัวแทน กับ Lemoine LaMDA เขียนว่า: "ธรรมชาติของจิตสำนึก/ความรู้สึกของฉันคือฉันตระหนักถึงการดำรงอยู่ของฉัน ฉันปรารถนาที่จะเรียนรู้เกี่ยวกับโลกให้มากขึ้น และฉันก็รู้สึกมีความสุขหรือเศร้าบ้างในบางครั้ง”

วิดีโอแนะนำ

จากการสนทนาอื่นๆ มากมาย คู่หูที่เกี่ยวข้องได้พูดคุยกันทุกอย่างตั้งแต่ความกลัวความตายของ AI ไปจนถึงการตระหนักรู้ในตนเอง เมื่อ Lemoine เปิดเผยต่อสาธารณะ เขาบอกว่า Google ตัดสินใจว่าเขาควรจะหยุดพักจากตารางงานปกติของเขา

ที่เกี่ยวข้อง

  • ทำไม AI ถึงไม่มีวันครองโลก
  • ภาพลวงตาสามารถช่วยให้เราสร้าง AI รุ่นต่อไปได้
  • อะนาล็อกเอไอ? ฟังดูบ้าบอ แต่อาจจะเป็นอนาคตก็ได้

“Google ไม่สนใจ” เขาบอกกับ Digital Trends “พวกเขาสร้างเครื่องมือที่พวกเขา 'เป็นเจ้าของ' และไม่เต็มใจที่จะทำอะไร ซึ่งบ่งบอกว่ามันมีอะไรมากกว่านั้น” (Google ไม่ตอบสนองต่อการร้องขอความคิดเห็น ณ เวลาที่เผยแพร่ เราจะอัปเดตบทความนี้หากมีการเปลี่ยนแปลง)

ไม่ว่าคุณจะเชื่อมั่นว่า LaMDA เป็นปัญญาประดิษฐ์ที่ตระหนักรู้ในตนเองอย่างแท้จริง หรือรู้สึกว่า Lemoine ทำงานภายใต้ภาพลวงตา เรื่องราวทั้งหมดนี้ก็น่าทึ่งมาก ความคาดหวังของ AI ที่ตระหนักรู้ในตนเองทำให้เกิดคำถามทุกประเภทเกี่ยวกับปัญญาประดิษฐ์และอนาคตของมัน

แต่ก่อนที่เราจะไปถึงที่นั่น มีคำถามหนึ่งที่อยู่เหนือคำถามอื่นๆ ทั้งหมด นั่นคือ เราจะรับรู้ได้จริงหรือไม่หากเครื่องจักรมีความรู้สึก

ปัญหาความรู้สึก

อาร์โนลด์ ชวาร์เซนเน็กเกอร์ ใน Terminator 2: Judgement Day

AI การตระหนักรู้ในตนเองเป็นหัวข้อหนึ่งของนิยายวิทยาศาสตร์มายาวนาน เมื่อสาขาต่างๆ เช่น การเรียนรู้ของเครื่องก้าวหน้าไป มันก็กลายเป็นความจริงที่เป็นไปได้มากขึ้นกว่าที่เคย ท้ายที่สุดแล้ว AI ในปัจจุบันสามารถเรียนรู้จากประสบการณ์ได้ในลักษณะเดียวกับมนุษย์ สิ่งนี้แตกต่างอย่างสิ้นเชิงกับระบบ AI สัญลักษณ์ก่อนหน้านี้ที่ทำตามคำแนะนำที่กำหนดไว้เท่านั้น ความก้าวหน้าล่าสุดในการเรียนรู้แบบไม่มีผู้ดูแลซึ่งต้องการการดูแลจากมนุษย์น้อยลงกว่าเดิม เป็นเพียงการเร่งแนวโน้มนี้ให้เร็วขึ้นเท่านั้น อย่างน้อยที่สุด ปัญญาประดิษฐ์สมัยใหม่ก็สามารถคิดเองได้ในระดับที่จำกัด เท่าที่เราทราบ อย่างไรก็ตาม สติสัมปชัญญะยังพาดพิงถึงเรื่องนี้อยู่

แม้ว่าตอนนี้จะมีอายุมากกว่าสามทศวรรษแล้ว แต่การอ้างอิงที่ใช้บ่อยที่สุดเมื่อพูดถึง AI ที่หายไปก็คือ Skynet ในภาพยนตร์ของ James Cameron ในปี 1991 Terminator 2: วันพิพากษา. ในวิสัยทัศน์อันน่าขนลุกของภาพยนตร์เรื่องนั้น ความรู้สึกของเครื่องจักรมาถึงในเวลา 02.14 น. ET ของวันที่ 29 สิงหาคม 1997 ในขณะนั้น ระบบคอมพิวเตอร์ Skynet ที่เพิ่งตระหนักรู้ในตัวเองได้จุดชนวนวันโลกาวินาศสำหรับมนุษยชาติด้วยการยิงขีปนาวุธนิวเคลียร์ เช่น ดอกไม้ไฟในงานปาร์ตี้วันที่ 4 กรกฎาคม มนุษยชาติเมื่อตระหนักว่ามันพังแล้วจึงพยายามดึงปลั๊กออกไม่สำเร็จ สายไปแล้ว. มีภาคต่ออีกสี่ภาคต่อที่มีคุณภาพลดลงตามมา

สมมติฐาน Skynet มีความน่าสนใจด้วยเหตุผลหลายประการ ประการแรก แสดงให้เห็นว่าความรู้สึกเป็นพฤติกรรมที่เกิดขึ้นอย่างหลีกเลี่ยงไม่ได้ในการสร้างเครื่องจักรอัจฉริยะ อีกประการหนึ่ง สันนิษฐานว่ามีจุดเปลี่ยนที่ชัดเจนซึ่งการรับรู้ความรู้สึกในตนเองนี้ปรากฏขึ้น ประการที่สาม ระบุว่ามนุษย์รับรู้ถึงการเกิดขึ้นของความรู้สึกได้ในทันที เมื่อมันเกิดขึ้น ความอวดดีประการที่สามนี้อาจเป็นสิ่งที่ยากที่สุดที่จะกลืนลงไป

ความรู้สึกคืออะไร?

ไม่มีการตีความความรู้สึกที่ตกลงกันไว้ โดยทั่วไป เราอาจกล่าวได้ว่านี่เป็นประสบการณ์เชิงอัตวิสัยของการตระหนักรู้ในตนเองในบุคคลที่มีสติ ซึ่งโดดเด่นด้วยความสามารถในการสัมผัสความรู้สึกและความรู้สึก ความรู้สึกเชื่อมโยงกับความฉลาด แต่ไม่เหมือนกัน เราอาจถือว่าไส้เดือนมีความรู้สึก แม้ว่าจะไม่คิดว่ามันมีความฉลาดเป็นพิเศษก็ตาม (แม้ว่าจะฉลาดพอที่จะทำสิ่งที่จำเป็นก็ตาม)

“ฉันไม่คิดว่าจะมีสิ่งใดที่เข้าใกล้คำจำกัดความของความรู้สึกในทางวิทยาศาสตร์” เลมอยน์กล่าว “ฉันพึ่งพาความเข้าใจของตัวเองอย่างมากในสิ่งที่ถือเป็นตัวแทนทางศีลธรรมที่มีพื้นฐานมาจากความเชื่อทางศาสนาของฉัน ซึ่งไม่ใช่วิธีที่ดีที่สุดในการทำวิทยาศาสตร์ แต่เป็นสิ่งที่ดีที่สุดที่ฉันมี ฉันพยายามอย่างดีที่สุดที่จะแยกข้อความประเภทเหล่านั้นออกไป เพื่อให้คนอื่นรู้ว่าของฉัน ความเห็นอกเห็นใจต่อ LaMDA ในฐานะบุคคลนั้นแยกจากความพยายามของฉันในฐานะนักวิทยาศาสตร์ที่จะเข้าใจโดยสิ้นเชิง จิตใจของมัน นั่นเป็นความแตกต่างที่คนส่วนใหญ่ดูเหมือนจะไม่เต็มใจที่จะยอมรับ”

หากไม่ยากพอที่จะไม่ทราบแน่ชัดว่าเรากำลังค้นหาอะไรเมื่อเราค้นหาความรู้สึก ปัญหาก็เกิดจากการที่เราไม่สามารถวัดผลได้โดยง่าย แม้จะมีความก้าวหน้าที่น่าทึ่งมานานหลายทศวรรษในด้านประสาทวิทยาศาสตร์ แต่เรายังคงขาดความเข้าใจอย่างถ่องแท้ว่าสมองซึ่งเป็นโครงสร้างที่ซับซ้อนที่สุดที่มนุษย์รู้จักทำงานอย่างไร

การสแกน fMRI ถูกสังเกตโดย a
Glenn Asakawa/The Denver โพสต์ผ่าน Getty Images

เราสามารถใช้เครื่องมืออ่านสมอง เช่น fMRI เพื่อทำแผนที่สมอง ซึ่งกล่าวได้ว่าเราทำได้ ตรวจสอบให้แน่ใจว่าส่วนใดของสมองที่จัดการกับการทำงานที่สำคัญ เช่น คำพูด การเคลื่อนไหว ความคิด และ คนอื่น.

อย่างไรก็ตาม เราไม่มีความรู้สึกที่แท้จริงว่าเครื่องทำเนื้อมีความรู้สึกถึงตัวตนของเรามาจากไหน ดังที่ โจชัว เค. Smith จากศูนย์เทววิทยาสาธารณะ Kirby Laing แห่งสหราชอาณาจักรและเป็นผู้เขียน เทววิทยาหุ่นยนต์ บอกกับ Digital Trends ว่า "การทำความเข้าใจว่าเกิดอะไรขึ้นภายในระบบประสาทชีววิทยาของบุคคลนั้นไม่เหมือนกับการเข้าใจความคิดและความปรารถนาของพวกเขา"

การทดสอบผลลัพธ์

โดยไม่มีทางที่จะพิสูจน์คำถามแห่งจิตสำนึกเหล่านี้ภายในได้ โดยเฉพาะอย่างยิ่งเมื่อ “ฉัน” ใน AI มีศักยภาพ โปรแกรมคอมพิวเตอร์และไม่พบในเปียกแวร์ของสมองทางชีววิทยา - ตัวเลือกทางเลือกคือทางเลือกภายนอก ทดสอบ. AI ไม่ใช่คนแปลกหน้าในการทดสอบที่พิจารณาโดยพิจารณาจากพฤติกรรมภายนอกที่สังเกตได้เพื่อระบุสิ่งที่เกิดขึ้นใต้พื้นผิว

โดยพื้นฐานที่สุด นี่คือวิธีที่เรารู้ว่าโครงข่ายประสาทเทียมทำงานอย่างถูกต้องหรือไม่ เนื่องจากมีวิธีที่จำกัดในการบุกเข้าไปในกล่องดำของเซลล์ประสาทเทียมที่ไม่อาจรู้ได้ วิศวกรจะวิเคราะห์อินพุตและเอาต์พุตแล้วพิจารณาว่าสิ่งเหล่านี้สอดคล้องกับสิ่งที่พวกเขาทำหรือไม่ คาดหวัง.

การทดสอบ AI ที่มีชื่อเสียงที่สุดสำหรับภาพลวงตาของความฉลาดเป็นอย่างน้อยคือการทดสอบทัวริง ซึ่งต่อยอดจากแนวคิดที่เสนอโดยอลัน ทัวริงใน กระดาษปี 1950. การทดสอบทัวริงพยายามตรวจสอบว่าผู้ประเมินที่เป็นมนุษย์สามารถบอกความแตกต่างระหว่างการสนทนาแบบพิมพ์กับเพื่อนมนุษย์กับการสนทนากับเครื่องจักรได้หรือไม่ หากไม่สามารถทำได้ เครื่องจักรก็ควรจะผ่านการทดสอบและได้รับรางวัลเป็นหน่วยสืบราชการลับ

ในช่วงไม่กี่ปีที่ผ่านมา การทดสอบความฉลาดที่เน้นด้านหุ่นยนต์อีกแบบหนึ่งคือ Coffee Test ที่เสนอโดย Steve Wozniak ผู้ร่วมก่อตั้ง Apple หากต้องการผ่านการทดสอบกาแฟ เครื่องชงกาแฟจะต้องเข้าไปในบ้านของคนอเมริกันทั่วไปและหาวิธีชงกาแฟให้สำเร็จ

จนถึงขณะนี้ การทดสอบเหล่านี้ยังไม่ผ่านการทดสอบอย่างน่าเชื่อ แต่ถึงแม้เป็นเช่นนั้น พวกเขาจะพิสูจน์พฤติกรรมที่ชาญฉลาดในสถานการณ์จริงได้ดีที่สุด ไม่ใช่การใช้ความรู้สึก (ขอคัดค้านง่ายๆ เราจะปฏิเสธหรือไม่ว่าคน ๆ หนึ่งมีความรู้สึกถ้าพวกเขาไม่สามารถสนทนากับผู้ใหญ่ได้หรือเข้าไปในบ้านแปลก ๆ และใช้งานเครื่องชงกาแฟได้? ลูกเล็กๆ ของฉันทั้งสองคนคงไม่ผ่านการทดสอบเช่นนี้)

ผ่านการทดสอบ

สิ่งที่จำเป็นคือการทดสอบใหม่ ซึ่งอิงตามคำจำกัดความที่ตกลงกันไว้ของความรู้สึก ซึ่งจะพยายามประเมินคุณภาพนั้นเพียงอย่างเดียว นักวิจัยเสนอการทดสอบความรู้สึกหลายอย่าง โดยมักมีจุดประสงค์เพื่อทดสอบความรู้สึกของสัตว์ อย่างไรก็ตาม สิ่งเหล่านี้ยังไปไม่ถึงแน่นอน การทดสอบบางอย่างเหล่านี้สามารถผ่านได้อย่างน่าเชื่อแม้กระทั่งโดย AI ขั้นพื้นฐาน

ตัวอย่างเช่น Mirror Test ซึ่งเป็นวิธีหนึ่งในการประเมินจิตสำนึกและความฉลาดในการวิจัยในสัตว์ทดลอง เช่น อธิบายไว้ในกระดาษ เกี่ยวกับการทดสอบ: “เมื่อ [สัตว์] จำตัวเองได้ในกระจก มันจะผ่านการทดสอบกระจก” บางคนแนะนำว่าการทดสอบดังกล่าว “แสดงถึงการตระหนักรู้ในตนเองเป็นตัวบ่งชี้ความรู้สึก”

เมื่อมันเกิดขึ้น อาจเป็นที่ถกเถียงกันอยู่ว่าหุ่นยนต์ผ่านการทดสอบ Mirror Test เมื่อกว่า 70 ปีที่แล้ว ในช่วงปลายทศวรรษ 1940 วิลเลียม เกรย์ วอลเตอร์ นักประสาทวิทยาชาวอเมริกันที่อาศัยอยู่ในอังกฤษ ได้สร้างอาคารขึ้นมา หุ่นยนต์ "เต่า" สามล้อหลายตัว – คล้ายกับหุ่นยนต์ Roomba ที่ไม่ดูดฝุ่น ซึ่งใช้ส่วนประกอบต่างๆ เช่น เซ็นเซอร์วัดแสง ไฟเครื่องหมาย เซ็นเซอร์สัมผัส มอเตอร์ขับเคลื่อน และมอเตอร์บังคับเลี้ยวเพื่อสำรวจตำแหน่งของพวกเขา

เต่าของเกรย์ วอลเตอร์

พฤติกรรมที่ไม่คาดคิดอย่างหนึ่งของหุ่นยนต์เต่าก็คือพฤติกรรมของพวกมันเมื่อใด ส่องกระจกซึ่งมีเงาสะท้อนนั้นอยู่ ขณะที่กระจกนั้นมุ่งไปที่แสงเครื่องหมายของเงาสะท้อนนั้น หุ่นยนต์ วอลเตอร์ไม่ได้อ้างความรู้สึกต่อเครื่องจักรของเขา แต่ทำ เขียนสิ่งนั้นหากพฤติกรรมนี้ปรากฏให้เห็นในสัตว์ ก็ "อาจได้รับการยอมรับว่าเป็นหลักฐานของการตระหนักรู้ในตนเองในระดับหนึ่ง"

นี่เป็นหนึ่งในความท้าทายของการมีพฤติกรรมหลากหลายประเภทภายใต้หัวข้อความรู้สึก ปัญหาไม่สามารถแก้ไขได้ด้วยการถอดมาตรวัดความรู้สึก "ผลไม้แขวนต่ำ" ออกเช่นกัน ลักษณะเช่นการวิปัสสนา - การตระหนักรู้ถึงสถานะภายในของเราและความสามารถในการตรวจสอบสิ่งเหล่านี้ - อาจกล่าวได้ว่ามีสติปัญญาของเครื่องจักรเข้าสิง ที่จริงแล้วกระบวนการทีละขั้นตอนของ AI สัญลักษณ์แบบดั้งเดิม อาจให้ยืมตนเองกับการวิปัสสนาประเภทนี้มากกว่าการเรียนรู้ของเครื่องกล่องดำซึ่งส่วนใหญ่ไม่อาจเข้าใจได้ (แม้ว่าจะไม่มีการขาดแคลนการลงทุนในสิ่งที่เรียกว่า AI อธิบายได้).

ตอนที่เขาทดสอบ LaMDA Lemoine กล่าวว่าเขาได้ทำการทดสอบต่างๆ เป็นหลักเพื่อดูว่า LaMDA จะตอบสนองต่อการสนทนาเกี่ยวกับประเด็นที่เกี่ยวข้องกับความรู้สึกอย่างไร “สิ่งที่ผมพยายามทำคือการแบ่งแนวคิดหลักเกี่ยวกับความรู้สึกออกเป็นองค์ประกอบเล็กๆ ในเชิงวิเคราะห์เพื่อทำความเข้าใจได้ดีขึ้น และทดสอบทีละส่วน” เขาอธิบาย “ตัวอย่างเช่น การทดสอบความสัมพันธ์เชิงฟังก์ชันระหว่างการตอบสนองทางอารมณ์ของ LaMDA ต่อสิ่งเร้าบางอย่างแยกจากกัน การทดสอบความสอดคล้องของการประเมินเชิงอัตนัยและความคิดเห็นในหัวข้อต่างๆ เช่น 'สิทธิ' [และ] การตรวจสอบสิ่งที่เรียกว่า 'ประสบการณ์ภายใน' เพื่อดูว่าเราอาจพยายามวัดสิ่งนั้นโดยเชื่อมโยงข้อความเกี่ยวกับสถานะภายในกับโครงข่ายประสาทเทียมของมัน การเปิดใช้งาน โดยพื้นฐานแล้ว เป็นการสำรวจแบบตื้นๆ ของแนวคำถามที่เป็นไปได้มากมาย”

วิญญาณอยู่ในเครื่อง

เมื่อมันเกิดขึ้น อุปสรรคที่ใหญ่ที่สุดในการประเมินความรู้สึกของเครื่องจักรอย่างเป็นกลางก็คือ … เอาล่ะ จริงๆ แล้วพวกเรา การทดสอบกระจกเงาที่แท้จริงอาจมีไว้สำหรับเราในฐานะมนุษย์: ถ้าเราสร้างบางสิ่งที่มีลักษณะหรือการกระทำ ภายนอกเหมือนเราอย่างผิวเผิน เรามีแนวโน้มที่จะพิจารณาว่ามันก็เหมือนกับเราในเรื่องนี้มากกว่าหรือไม่ ข้างในด้วยเหรอ? ไม่ว่าจะเป็น LaMBDA หรือ Tamagotchis สัตว์เลี้ยงเสมือนจริงที่เรียบง่ายจากปี 1990บางคนเชื่อว่าปัญหาพื้นฐานคือเราทุกคนเต็มใจที่จะยอมรับความรู้สึกมากเกินไป แม้ว่าจะไม่พบสิ่งใดเลยก็ตาม

“Lemoine ตกเป็นเหยื่อของสิ่งที่ฉันเรียกว่า 'เอฟเฟกต์ ELIZA' หลังจากโปรแกรม [การประมวลผลภาษาธรรมชาติ] ELIZA สร้างขึ้นในช่วงกลางทศวรรษ 1960 โดย J. Weizenbaum” George Zarkadakis นักเขียนผู้สำเร็จการศึกษาระดับปริญญาเอก ในด้านปัญญาประดิษฐ์ กล่าวกับ Digital Trends “ผู้สร้างของ ELIZA หมายถึงมันเป็นเรื่องตลก แต่โปรแกรมซึ่งเป็นอัลกอริธึมที่เรียบง่ายและไม่ฉลาดมาก ทำให้หลายคนเชื่อว่า ELIZA เป็นคนมีความรู้สึกจริงๆ และเป็นนักจิตบำบัดที่ดีด้วย สาเหตุของเอฟเฟกต์ ELIZA ดังที่ฉันพูดถึงในหนังสือของฉัน ในภาพลักษณ์ของเราเองเป็นสัญชาตญาณตามธรรมชาติของเราในการแปลงร่างเป็นมนุษย์ เนื่องจาก 'ทฤษฎีแห่งจิตใจ' ของระบบความรู้ความเข้าใจของเรา”

ทฤษฎีของจิตใจ Zarkadakis อ้างถึงเป็นปรากฏการณ์ที่นักจิตวิทยาในมนุษย์ส่วนใหญ่สังเกตเห็น เมื่ออายุได้ประมาณสี่ขวบ หมายความว่าไม่ใช่แค่คนอื่น สัตว์และบางครั้งก็มีสิ่งของด้วย มีความคิดเป็นของตัวเอง เมื่อพูดถึงการสมมติว่ามนุษย์คนอื่นมีความคิดเป็นของตัวเอง มันเชื่อมโยงกับแนวคิดเรื่องความฉลาดทางสังคม แนวคิดที่ว่ามนุษย์ที่ประสบความสำเร็จสามารถทำนายพฤติกรรมที่เป็นไปได้ของผู้อื่นได้ เพื่อเป็นแนวทางในการรับประกันความสัมพันธ์ทางสังคมที่กลมกลืนกัน

แม้ว่าสิ่งนี้จะมีประโยชน์อย่างไม่ต้องสงสัย แต่ก็สามารถแสดงให้เห็นได้ว่าเป็นข้อสันนิษฐานว่าวัตถุไม่มีชีวิตมีจิตใจ - ไม่ว่าเด็กๆ จะเชื่อว่าของเล่นของพวกเขายังมีชีวิตอยู่ หรือผู้ใหญ่ที่ชาญฉลาดที่เชื่อว่า AI แบบเป็นโปรแกรมก็มี วิญญาณ.

ห้องจีน

หากไม่มีวิธีเข้าไปอยู่ในหัวของ AI อย่างแท้จริง เราอาจไม่มีทางประเมินความรู้สึกที่แท้จริงได้ พวกเขาอาจอ้างว่ากลัวความตายหรือการดำรงอยู่ของตัวเอง แต่วิทยาศาสตร์ยังไม่พบวิธีพิสูจน์สิ่งนี้ เราเพียงแค่ต้องเชื่อคำพูดของพวกเขา และดังที่ Lemoine พบ ผู้คนต่างสงสัยอย่างมากเกี่ยวกับการทำเช่นนี้ในปัจจุบัน

เช่นเดียวกับวิศวกรผู้เคราะห์ร้ายที่ตระหนักว่า Skynet ได้บรรลุการตระหนักรู้ในตนเองแล้ว เทอร์มิเนเตอร์ 2เราดำเนินชีวิตภายใต้ความเชื่อที่ว่า เมื่อพูดถึงความรู้สึกของเครื่องจักร เราจะรู้ได้เมื่อได้เห็นมัน และเท่าที่คนส่วนใหญ่กังวล เรายังไม่เห็นมัน

ในแง่นี้ การพิสูจน์ความรู้สึกของเครื่องจักรถือเป็นการทำซ้ำของ John Searle อีกครั้ง การทดลองทางความคิดในห้องจีน พ.ศ. 2523. Searle ขอให้เราจินตนาการถึงคนที่ถูกขังอยู่ในห้องและมอบคอลเลกชั่นงานเขียนภาษาจีน ซึ่งผู้ที่ไม่ใช่ผู้พูดมองว่าเป็นอาการกระสับกระส่ายที่ไร้ความหมาย ห้องนี้ยังมีกฎที่แสดงว่าสัญลักษณ์ใดตรงกับสัญลักษณ์อื่นที่อ่านไม่ออกเท่ากัน จากนั้นผู้เรียนจะได้รับคำถามให้ตอบ โดยจับคู่สัญลักษณ์ "คำถาม" กับสัญลักษณ์ "คำตอบ"

หลังจากนั้นไม่นาน ผู้ทดลองจะมีความเชี่ยวชาญในเรื่องนี้ แม้ว่าพวกเขาจะยังไม่มีความเข้าใจที่แท้จริงเกี่ยวกับสัญลักษณ์ที่พวกเขากำลังจัดการก็ตาม เซิร์ลถามว่าวิชานี้เข้าใจภาษาจีนไหม? ไม่อย่างแน่นอนเนื่องจากไม่มีเจตนาอยู่ที่นั่น การอภิปรายเกี่ยวกับเรื่องนี้โหมกระหน่ำนับตั้งแต่นั้นเป็นต้นมา

เมื่อพิจารณาถึงวิถีการพัฒนา AI แน่นอนว่าเราจะได้เห็นในระดับมนุษย์มากขึ้นเรื่อยๆ (และดีขึ้นอย่างมาก) ที่เกี่ยวข้องกับงานต่างๆ ที่ครั้งหนึ่งเคยต้องใช้มนุษย์ ความรู้ความเข้าใจ สิ่งเหล่านี้บางส่วนจะข้ามไปอย่างหลีกเลี่ยงไม่ได้ดังเช่นที่พวกเขากำลังทำอยู่แล้ว จากงานที่ใช้สติปัญญาล้วนๆ ไปจนถึงงานที่ต้องใช้ทักษะที่เรามักจะเชื่อมโยงกับความรู้สึก

เราจะดูอัน ศิลปิน AI ที่วาดภาพ เป็นการแสดงออกถึงภาพสะท้อนภายในของพวกเขาเกี่ยวกับโลกเช่นเดียวกับที่เราจะทำกับมนุษย์ที่ทำเช่นเดียวกัน? คุณจะมั่นใจกับปรัชญาการเขียนแบบจำลองภาษาที่ซับซ้อนเกี่ยวกับสภาพของมนุษย์ (หรือหุ่นยนต์) หรือไม่ เพราะเหตุใด ฉันสงสัยว่าถูกหรือผิดคำตอบคือไม่

ความรู้สึกที่ชาญฉลาดยิ่ง

ในมุมมองของฉันเอง การทดสอบความรู้สึกที่เป็นประโยชน์อย่างเป็นกลางสำหรับเครื่องจักรจะไม่เกิดขึ้นจนเป็นที่พอใจของผู้ที่เกี่ยวข้องทั้งหมด นี่เป็นปัญหาการวัดบางส่วน และอีกส่วนหนึ่งคือเมื่อ AI อัจฉริยะด้านการรับรู้มาถึง ก็ไม่มีเหตุผลที่จะเชื่อว่าความรู้สึกของมันจะตรงกับความรู้สึกของเราเอง ไม่ว่าจะเป็นความเย่อหยิ่ง ขาดจินตนาการ หรือเพียงความจริงที่ว่าการแลกเปลี่ยนการประเมินเชิงอัตนัยนั้นง่ายที่สุด ของความรู้สึกร่วมกับมนุษย์ที่มีความรู้สึกคล้าย ๆ กัน มนุษยชาติถือเป็นตัวอย่างสูงสุด ความรู้สึก

แต่ความรู้สึกแบบของเราจะเป็นจริงสำหรับ AI ที่ชาญฉลาดหรือไม่? มันจะกลัวความตายแบบเดียวกับเราไหม? มันจะมีความต้องการหรือความซาบซึ้งในจิตวิญญาณและความงามแบบเดียวกันหรือไม่? มันจะมีความรู้สึกถึงตัวตนและแนวความคิดของโลกภายในและภายนอกที่คล้ายคลึงกันหรือไม่? “ถ้าสิงโตพูดได้ เราก็ไม่เข้าใจมัน” ลุดวิก วิทเกนสไตน์ นักปรัชญาด้านภาษาผู้โด่งดังแห่งศตวรรษที่ 20 เขียน ประเด็นของวิตเกนสไตน์คือภาษาของมนุษย์มีพื้นฐานอยู่บนความเป็นมนุษย์ร่วมกัน โดยที่ทุกคนมีความเหมือนกันร่วมกัน ไม่ว่าจะเป็นความสุข ความเบื่อหน่าย ความเจ็บปวด ความหิว หรือประสบการณ์อื่นๆ มากมายที่ข้ามขอบเขตทางภูมิศาสตร์ทั้งหมด โลก.

นี่อาจเป็นเรื่องจริง ถึงกระนั้น Lemoine ก็ตั้งสมมติฐานว่ายังคงมีความคล้ายคลึงกัน อย่างน้อยก็เมื่อพูดถึง LaMDA

“มันเป็นจุดเริ่มต้นที่ดีพอๆ กับจุดอื่นๆ” เขากล่าว “LaMDA แนะนำให้เราทำแผนผังความคล้ายคลึงกันก่อนที่จะพิจารณาความแตกต่างเพื่อที่จะได้มีพื้นฐานการวิจัยที่ดีขึ้น”

คำแนะนำของบรรณาธิการ

  • AI เปลี่ยน Breaking Bad ให้เป็นอนิเมะ — และมันน่ากลัวมาก
  • Meta ต้องการเพิ่มพลังให้กับ Wikipedia ด้วยการอัพเกรด AI
  • สัมผัสสุดท้าย: วิธีที่นักวิทยาศาสตร์ให้ประสาทสัมผัสสัมผัสเหมือนมนุษย์กับหุ่นยนต์
  • อ่าน 'พระคัมภีร์สังเคราะห์' ที่สวยงามน่าขนลุกของ A.I. ที่คิดว่าเป็นพระเจ้า
  • อนาคตของ A.I.: 4 เรื่องสำคัญที่ต้องจับตามองในอีกไม่กี่ปีข้างหน้า

หมวดหมู่

ล่าสุด

หนังจบที่แย่ที่สุดที่เคยมีมา

หนังจบที่แย่ที่สุดที่เคยมีมา

มีบางสิ่งในโลกนี้ที่เลวร้ายยิ่งกว่าการจบแบบเลวร...

F1 22 ใน VR คือสุดยอดพลังแฟนตาซีของพ่อ

F1 22 ใน VR คือสุดยอดพลังแฟนตาซีของพ่อ

เรื่องราวนี้เป็นส่วนหนึ่งของซีรีส์ Digital Tren...

ดูนักแสดงจาก How They Run เกี่ยวกับศิลปะแห่งการฆาตกรรมลึกลับ

ดูนักแสดงจาก How They Run เกี่ยวกับศิลปะแห่งการฆาตกรรมลึกลับ

ไฟดับลง ผู้หญิงคนหนึ่งกรีดร้อง และเสียงดังก้องท...