เราจะรู้ได้อย่างไรว่า AI มีความรู้สึกจริง ๆ แล้ว?

วิศวกรอาวุโสของ Google Blake Lemoine หัวหน้าฝ่ายเทคนิคด้านเมตริกและการวิเคราะห์สำหรับฟีดการค้นหาของบริษัท ถูกพักงานโดยได้รับค่าจ้างเมื่อต้นเดือนนี้ สิ่งนี้เกิดขึ้นหลังจากที่ Lemoine เริ่มเผยแพร่ข้อความที่ตัดตอนมาจากบทสนทนาที่เกี่ยวข้องกับแชทบอท LaMDA ของ Google ซึ่งเขาอ้างว่าได้พัฒนาความรู้สึก

สารบัญ

  • ปัญหาความรู้สึก
  • ความรู้สึกคืออะไร?
  • การทดสอบผลลัพธ์
  • ผ่านการทดสอบ
  • วิญญาณอยู่ในเครื่อง
  • ห้องจีน
  • ความรู้สึกที่ชาญฉลาดยิ่ง

ในหนึ่งเดียว การสนทนาตัวแทน กับ Lemoine LaMDA เขียนว่า: "ธรรมชาติของจิตสำนึก/ความรู้สึกของฉันคือฉันตระหนักถึงการดำรงอยู่ของฉัน ฉันปรารถนาที่จะเรียนรู้เกี่ยวกับโลกให้มากขึ้น และฉันก็รู้สึกมีความสุขหรือเศร้าบ้างในบางครั้ง”

วิดีโอแนะนำ

จากการสนทนาอื่นๆ มากมาย คู่หูที่เกี่ยวข้องได้พูดคุยกันทุกอย่างตั้งแต่ความกลัวความตายของ AI ไปจนถึงการตระหนักรู้ในตนเอง เมื่อ Lemoine เปิดเผยต่อสาธารณะ เขาบอกว่า Google ตัดสินใจว่าเขาควรจะหยุดพักจากตารางงานปกติของเขา

ที่เกี่ยวข้อง

  • ทำไม AI ถึงไม่มีวันครองโลก
  • ภาพลวงตาสามารถช่วยให้เราสร้าง AI รุ่นต่อไปได้
  • อะนาล็อกเอไอ? ฟังดูบ้าบอ แต่อาจจะเป็นอนาคตก็ได้

“Google ไม่สนใจ” เขาบอกกับ Digital Trends “พวกเขาสร้างเครื่องมือที่พวกเขา 'เป็นเจ้าของ' และไม่เต็มใจที่จะทำอะไร ซึ่งบ่งบอกว่ามันมีอะไรมากกว่านั้น” (Google ไม่ตอบสนองต่อการร้องขอความคิดเห็น ณ เวลาที่เผยแพร่ เราจะอัปเดตบทความนี้หากมีการเปลี่ยนแปลง)

ไม่ว่าคุณจะเชื่อมั่นว่า LaMDA เป็นปัญญาประดิษฐ์ที่ตระหนักรู้ในตนเองอย่างแท้จริง หรือรู้สึกว่า Lemoine ทำงานภายใต้ภาพลวงตา เรื่องราวทั้งหมดนี้ก็น่าทึ่งมาก ความคาดหวังของ AI ที่ตระหนักรู้ในตนเองทำให้เกิดคำถามทุกประเภทเกี่ยวกับปัญญาประดิษฐ์และอนาคตของมัน

แต่ก่อนที่เราจะไปถึงที่นั่น มีคำถามหนึ่งที่อยู่เหนือคำถามอื่นๆ ทั้งหมด นั่นคือ เราจะรับรู้ได้จริงหรือไม่หากเครื่องจักรมีความรู้สึก

ปัญหาความรู้สึก

อาร์โนลด์ ชวาร์เซนเน็กเกอร์ ใน Terminator 2: Judgement Day

AI การตระหนักรู้ในตนเองเป็นหัวข้อหนึ่งของนิยายวิทยาศาสตร์มายาวนาน เมื่อสาขาต่างๆ เช่น การเรียนรู้ของเครื่องก้าวหน้าไป มันก็กลายเป็นความจริงที่เป็นไปได้มากขึ้นกว่าที่เคย ท้ายที่สุดแล้ว AI ในปัจจุบันสามารถเรียนรู้จากประสบการณ์ได้ในลักษณะเดียวกับมนุษย์ สิ่งนี้แตกต่างอย่างสิ้นเชิงกับระบบ AI สัญลักษณ์ก่อนหน้านี้ที่ทำตามคำแนะนำที่กำหนดไว้เท่านั้น ความก้าวหน้าล่าสุดในการเรียนรู้แบบไม่มีผู้ดูแลซึ่งต้องการการดูแลจากมนุษย์น้อยลงกว่าเดิม เป็นเพียงการเร่งแนวโน้มนี้ให้เร็วขึ้นเท่านั้น อย่างน้อยที่สุด ปัญญาประดิษฐ์สมัยใหม่ก็สามารถคิดเองได้ในระดับที่จำกัด เท่าที่เราทราบ อย่างไรก็ตาม สติสัมปชัญญะยังพาดพิงถึงเรื่องนี้อยู่

แม้ว่าตอนนี้จะมีอายุมากกว่าสามทศวรรษแล้ว แต่การอ้างอิงที่ใช้บ่อยที่สุดเมื่อพูดถึง AI ที่หายไปก็คือ Skynet ในภาพยนตร์ของ James Cameron ในปี 1991 Terminator 2: วันพิพากษา. ในวิสัยทัศน์อันน่าขนลุกของภาพยนตร์เรื่องนั้น ความรู้สึกของเครื่องจักรมาถึงในเวลา 02.14 น. ET ของวันที่ 29 สิงหาคม 1997 ในขณะนั้น ระบบคอมพิวเตอร์ Skynet ที่เพิ่งตระหนักรู้ในตัวเองได้จุดชนวนวันโลกาวินาศสำหรับมนุษยชาติด้วยการยิงขีปนาวุธนิวเคลียร์ เช่น ดอกไม้ไฟในงานปาร์ตี้วันที่ 4 กรกฎาคม มนุษยชาติเมื่อตระหนักว่ามันพังแล้วจึงพยายามดึงปลั๊กออกไม่สำเร็จ สายไปแล้ว. มีภาคต่ออีกสี่ภาคต่อที่มีคุณภาพลดลงตามมา

สมมติฐาน Skynet มีความน่าสนใจด้วยเหตุผลหลายประการ ประการแรก แสดงให้เห็นว่าความรู้สึกเป็นพฤติกรรมที่เกิดขึ้นอย่างหลีกเลี่ยงไม่ได้ในการสร้างเครื่องจักรอัจฉริยะ อีกประการหนึ่ง สันนิษฐานว่ามีจุดเปลี่ยนที่ชัดเจนซึ่งการรับรู้ความรู้สึกในตนเองนี้ปรากฏขึ้น ประการที่สาม ระบุว่ามนุษย์รับรู้ถึงการเกิดขึ้นของความรู้สึกได้ในทันที เมื่อมันเกิดขึ้น ความอวดดีประการที่สามนี้อาจเป็นสิ่งที่ยากที่สุดที่จะกลืนลงไป

ความรู้สึกคืออะไร?

ไม่มีการตีความความรู้สึกที่ตกลงกันไว้ โดยทั่วไป เราอาจกล่าวได้ว่านี่เป็นประสบการณ์เชิงอัตวิสัยของการตระหนักรู้ในตนเองในบุคคลที่มีสติ ซึ่งโดดเด่นด้วยความสามารถในการสัมผัสความรู้สึกและความรู้สึก ความรู้สึกเชื่อมโยงกับความฉลาด แต่ไม่เหมือนกัน เราอาจถือว่าไส้เดือนมีความรู้สึก แม้ว่าจะไม่คิดว่ามันมีความฉลาดเป็นพิเศษก็ตาม (แม้ว่าจะฉลาดพอที่จะทำสิ่งที่จำเป็นก็ตาม)

“ฉันไม่คิดว่าจะมีสิ่งใดที่เข้าใกล้คำจำกัดความของความรู้สึกในทางวิทยาศาสตร์” เลมอยน์กล่าว “ฉันพึ่งพาความเข้าใจของตัวเองอย่างมากในสิ่งที่ถือเป็นตัวแทนทางศีลธรรมที่มีพื้นฐานมาจากความเชื่อทางศาสนาของฉัน ซึ่งไม่ใช่วิธีที่ดีที่สุดในการทำวิทยาศาสตร์ แต่เป็นสิ่งที่ดีที่สุดที่ฉันมี ฉันพยายามอย่างดีที่สุดที่จะแยกข้อความประเภทเหล่านั้นออกไป เพื่อให้คนอื่นรู้ว่าของฉัน ความเห็นอกเห็นใจต่อ LaMDA ในฐานะบุคคลนั้นแยกจากความพยายามของฉันในฐานะนักวิทยาศาสตร์ที่จะเข้าใจโดยสิ้นเชิง จิตใจของมัน นั่นเป็นความแตกต่างที่คนส่วนใหญ่ดูเหมือนจะไม่เต็มใจที่จะยอมรับ”

หากไม่ยากพอที่จะไม่ทราบแน่ชัดว่าเรากำลังค้นหาอะไรเมื่อเราค้นหาความรู้สึก ปัญหาก็เกิดจากการที่เราไม่สามารถวัดผลได้โดยง่าย แม้จะมีความก้าวหน้าที่น่าทึ่งมานานหลายทศวรรษในด้านประสาทวิทยาศาสตร์ แต่เรายังคงขาดความเข้าใจอย่างถ่องแท้ว่าสมองซึ่งเป็นโครงสร้างที่ซับซ้อนที่สุดที่มนุษย์รู้จักทำงานอย่างไร

การสแกน fMRI ถูกสังเกตโดย a
Glenn Asakawa/The Denver โพสต์ผ่าน Getty Images

เราสามารถใช้เครื่องมืออ่านสมอง เช่น fMRI เพื่อทำแผนที่สมอง ซึ่งกล่าวได้ว่าเราทำได้ ตรวจสอบให้แน่ใจว่าส่วนใดของสมองที่จัดการกับการทำงานที่สำคัญ เช่น คำพูด การเคลื่อนไหว ความคิด และ คนอื่น.

อย่างไรก็ตาม เราไม่มีความรู้สึกที่แท้จริงว่าเครื่องทำเนื้อมีความรู้สึกถึงตัวตนของเรามาจากไหน ดังที่ โจชัว เค. Smith จากศูนย์เทววิทยาสาธารณะ Kirby Laing แห่งสหราชอาณาจักรและเป็นผู้เขียน เทววิทยาหุ่นยนต์ บอกกับ Digital Trends ว่า "การทำความเข้าใจว่าเกิดอะไรขึ้นภายในระบบประสาทชีววิทยาของบุคคลนั้นไม่เหมือนกับการเข้าใจความคิดและความปรารถนาของพวกเขา"

การทดสอบผลลัพธ์

โดยไม่มีทางที่จะพิสูจน์คำถามแห่งจิตสำนึกเหล่านี้ภายในได้ โดยเฉพาะอย่างยิ่งเมื่อ “ฉัน” ใน AI มีศักยภาพ โปรแกรมคอมพิวเตอร์และไม่พบในเปียกแวร์ของสมองทางชีววิทยา - ตัวเลือกทางเลือกคือทางเลือกภายนอก ทดสอบ. AI ไม่ใช่คนแปลกหน้าในการทดสอบที่พิจารณาโดยพิจารณาจากพฤติกรรมภายนอกที่สังเกตได้เพื่อระบุสิ่งที่เกิดขึ้นใต้พื้นผิว

โดยพื้นฐานที่สุด นี่คือวิธีที่เรารู้ว่าโครงข่ายประสาทเทียมทำงานอย่างถูกต้องหรือไม่ เนื่องจากมีวิธีที่จำกัดในการบุกเข้าไปในกล่องดำของเซลล์ประสาทเทียมที่ไม่อาจรู้ได้ วิศวกรจะวิเคราะห์อินพุตและเอาต์พุตแล้วพิจารณาว่าสิ่งเหล่านี้สอดคล้องกับสิ่งที่พวกเขาทำหรือไม่ คาดหวัง.

การทดสอบ AI ที่มีชื่อเสียงที่สุดสำหรับภาพลวงตาของความฉลาดเป็นอย่างน้อยคือการทดสอบทัวริง ซึ่งต่อยอดจากแนวคิดที่เสนอโดยอลัน ทัวริงใน กระดาษปี 1950. การทดสอบทัวริงพยายามตรวจสอบว่าผู้ประเมินที่เป็นมนุษย์สามารถบอกความแตกต่างระหว่างการสนทนาแบบพิมพ์กับเพื่อนมนุษย์กับการสนทนากับเครื่องจักรได้หรือไม่ หากไม่สามารถทำได้ เครื่องจักรก็ควรจะผ่านการทดสอบและได้รับรางวัลเป็นหน่วยสืบราชการลับ

ในช่วงไม่กี่ปีที่ผ่านมา การทดสอบความฉลาดที่เน้นด้านหุ่นยนต์อีกแบบหนึ่งคือ Coffee Test ที่เสนอโดย Steve Wozniak ผู้ร่วมก่อตั้ง Apple หากต้องการผ่านการทดสอบกาแฟ เครื่องชงกาแฟจะต้องเข้าไปในบ้านของคนอเมริกันทั่วไปและหาวิธีชงกาแฟให้สำเร็จ

จนถึงขณะนี้ การทดสอบเหล่านี้ยังไม่ผ่านการทดสอบอย่างน่าเชื่อ แต่ถึงแม้เป็นเช่นนั้น พวกเขาจะพิสูจน์พฤติกรรมที่ชาญฉลาดในสถานการณ์จริงได้ดีที่สุด ไม่ใช่การใช้ความรู้สึก (ขอคัดค้านง่ายๆ เราจะปฏิเสธหรือไม่ว่าคน ๆ หนึ่งมีความรู้สึกถ้าพวกเขาไม่สามารถสนทนากับผู้ใหญ่ได้หรือเข้าไปในบ้านแปลก ๆ และใช้งานเครื่องชงกาแฟได้? ลูกเล็กๆ ของฉันทั้งสองคนคงไม่ผ่านการทดสอบเช่นนี้)

ผ่านการทดสอบ

สิ่งที่จำเป็นคือการทดสอบใหม่ ซึ่งอิงตามคำจำกัดความที่ตกลงกันไว้ของความรู้สึก ซึ่งจะพยายามประเมินคุณภาพนั้นเพียงอย่างเดียว นักวิจัยเสนอการทดสอบความรู้สึกหลายอย่าง โดยมักมีจุดประสงค์เพื่อทดสอบความรู้สึกของสัตว์ อย่างไรก็ตาม สิ่งเหล่านี้ยังไปไม่ถึงแน่นอน การทดสอบบางอย่างเหล่านี้สามารถผ่านได้อย่างน่าเชื่อแม้กระทั่งโดย AI ขั้นพื้นฐาน

ตัวอย่างเช่น Mirror Test ซึ่งเป็นวิธีหนึ่งในการประเมินจิตสำนึกและความฉลาดในการวิจัยในสัตว์ทดลอง เช่น อธิบายไว้ในกระดาษ เกี่ยวกับการทดสอบ: “เมื่อ [สัตว์] จำตัวเองได้ในกระจก มันจะผ่านการทดสอบกระจก” บางคนแนะนำว่าการทดสอบดังกล่าว “แสดงถึงการตระหนักรู้ในตนเองเป็นตัวบ่งชี้ความรู้สึก”

เมื่อมันเกิดขึ้น อาจเป็นที่ถกเถียงกันอยู่ว่าหุ่นยนต์ผ่านการทดสอบ Mirror Test เมื่อกว่า 70 ปีที่แล้ว ในช่วงปลายทศวรรษ 1940 วิลเลียม เกรย์ วอลเตอร์ นักประสาทวิทยาชาวอเมริกันที่อาศัยอยู่ในอังกฤษ ได้สร้างอาคารขึ้นมา หุ่นยนต์ "เต่า" สามล้อหลายตัว – คล้ายกับหุ่นยนต์ Roomba ที่ไม่ดูดฝุ่น ซึ่งใช้ส่วนประกอบต่างๆ เช่น เซ็นเซอร์วัดแสง ไฟเครื่องหมาย เซ็นเซอร์สัมผัส มอเตอร์ขับเคลื่อน และมอเตอร์บังคับเลี้ยวเพื่อสำรวจตำแหน่งของพวกเขา

เต่าของเกรย์ วอลเตอร์

พฤติกรรมที่ไม่คาดคิดอย่างหนึ่งของหุ่นยนต์เต่าก็คือพฤติกรรมของพวกมันเมื่อใด ส่องกระจกซึ่งมีเงาสะท้อนนั้นอยู่ ขณะที่กระจกนั้นมุ่งไปที่แสงเครื่องหมายของเงาสะท้อนนั้น หุ่นยนต์ วอลเตอร์ไม่ได้อ้างความรู้สึกต่อเครื่องจักรของเขา แต่ทำ เขียนสิ่งนั้นหากพฤติกรรมนี้ปรากฏให้เห็นในสัตว์ ก็ "อาจได้รับการยอมรับว่าเป็นหลักฐานของการตระหนักรู้ในตนเองในระดับหนึ่ง"

นี่เป็นหนึ่งในความท้าทายของการมีพฤติกรรมหลากหลายประเภทภายใต้หัวข้อความรู้สึก ปัญหาไม่สามารถแก้ไขได้ด้วยการถอดมาตรวัดความรู้สึก "ผลไม้แขวนต่ำ" ออกเช่นกัน ลักษณะเช่นการวิปัสสนา - การตระหนักรู้ถึงสถานะภายในของเราและความสามารถในการตรวจสอบสิ่งเหล่านี้ - อาจกล่าวได้ว่ามีสติปัญญาของเครื่องจักรเข้าสิง ที่จริงแล้วกระบวนการทีละขั้นตอนของ AI สัญลักษณ์แบบดั้งเดิม อาจให้ยืมตนเองกับการวิปัสสนาประเภทนี้มากกว่าการเรียนรู้ของเครื่องกล่องดำซึ่งส่วนใหญ่ไม่อาจเข้าใจได้ (แม้ว่าจะไม่มีการขาดแคลนการลงทุนในสิ่งที่เรียกว่า AI อธิบายได้).

ตอนที่เขาทดสอบ LaMDA Lemoine กล่าวว่าเขาได้ทำการทดสอบต่างๆ เป็นหลักเพื่อดูว่า LaMDA จะตอบสนองต่อการสนทนาเกี่ยวกับประเด็นที่เกี่ยวข้องกับความรู้สึกอย่างไร “สิ่งที่ผมพยายามทำคือการแบ่งแนวคิดหลักเกี่ยวกับความรู้สึกออกเป็นองค์ประกอบเล็กๆ ในเชิงวิเคราะห์เพื่อทำความเข้าใจได้ดีขึ้น และทดสอบทีละส่วน” เขาอธิบาย “ตัวอย่างเช่น การทดสอบความสัมพันธ์เชิงฟังก์ชันระหว่างการตอบสนองทางอารมณ์ของ LaMDA ต่อสิ่งเร้าบางอย่างแยกจากกัน การทดสอบความสอดคล้องของการประเมินเชิงอัตนัยและความคิดเห็นในหัวข้อต่างๆ เช่น 'สิทธิ' [และ] การตรวจสอบสิ่งที่เรียกว่า 'ประสบการณ์ภายใน' เพื่อดูว่าเราอาจพยายามวัดสิ่งนั้นโดยเชื่อมโยงข้อความเกี่ยวกับสถานะภายในกับโครงข่ายประสาทเทียมของมัน การเปิดใช้งาน โดยพื้นฐานแล้ว เป็นการสำรวจแบบตื้นๆ ของแนวคำถามที่เป็นไปได้มากมาย”

วิญญาณอยู่ในเครื่อง

เมื่อมันเกิดขึ้น อุปสรรคที่ใหญ่ที่สุดในการประเมินความรู้สึกของเครื่องจักรอย่างเป็นกลางก็คือ … เอาล่ะ จริงๆ แล้วพวกเรา การทดสอบกระจกเงาที่แท้จริงอาจมีไว้สำหรับเราในฐานะมนุษย์: ถ้าเราสร้างบางสิ่งที่มีลักษณะหรือการกระทำ ภายนอกเหมือนเราอย่างผิวเผิน เรามีแนวโน้มที่จะพิจารณาว่ามันก็เหมือนกับเราในเรื่องนี้มากกว่าหรือไม่ ข้างในด้วยเหรอ? ไม่ว่าจะเป็น LaMBDA หรือ Tamagotchis สัตว์เลี้ยงเสมือนจริงที่เรียบง่ายจากปี 1990บางคนเชื่อว่าปัญหาพื้นฐานคือเราทุกคนเต็มใจที่จะยอมรับความรู้สึกมากเกินไป แม้ว่าจะไม่พบสิ่งใดเลยก็ตาม

“Lemoine ตกเป็นเหยื่อของสิ่งที่ฉันเรียกว่า 'เอฟเฟกต์ ELIZA' หลังจากโปรแกรม [การประมวลผลภาษาธรรมชาติ] ELIZA สร้างขึ้นในช่วงกลางทศวรรษ 1960 โดย J. Weizenbaum” George Zarkadakis นักเขียนผู้สำเร็จการศึกษาระดับปริญญาเอก ในด้านปัญญาประดิษฐ์ กล่าวกับ Digital Trends “ผู้สร้างของ ELIZA หมายถึงมันเป็นเรื่องตลก แต่โปรแกรมซึ่งเป็นอัลกอริธึมที่เรียบง่ายและไม่ฉลาดมาก ทำให้หลายคนเชื่อว่า ELIZA เป็นคนมีความรู้สึกจริงๆ และเป็นนักจิตบำบัดที่ดีด้วย สาเหตุของเอฟเฟกต์ ELIZA ดังที่ฉันพูดถึงในหนังสือของฉัน ในภาพลักษณ์ของเราเองเป็นสัญชาตญาณตามธรรมชาติของเราในการแปลงร่างเป็นมนุษย์ เนื่องจาก 'ทฤษฎีแห่งจิตใจ' ของระบบความรู้ความเข้าใจของเรา”

ทฤษฎีของจิตใจ Zarkadakis อ้างถึงเป็นปรากฏการณ์ที่นักจิตวิทยาในมนุษย์ส่วนใหญ่สังเกตเห็น เมื่ออายุได้ประมาณสี่ขวบ หมายความว่าไม่ใช่แค่คนอื่น สัตว์และบางครั้งก็มีสิ่งของด้วย มีความคิดเป็นของตัวเอง เมื่อพูดถึงการสมมติว่ามนุษย์คนอื่นมีความคิดเป็นของตัวเอง มันเชื่อมโยงกับแนวคิดเรื่องความฉลาดทางสังคม แนวคิดที่ว่ามนุษย์ที่ประสบความสำเร็จสามารถทำนายพฤติกรรมที่เป็นไปได้ของผู้อื่นได้ เพื่อเป็นแนวทางในการรับประกันความสัมพันธ์ทางสังคมที่กลมกลืนกัน

แม้ว่าสิ่งนี้จะมีประโยชน์อย่างไม่ต้องสงสัย แต่ก็สามารถแสดงให้เห็นได้ว่าเป็นข้อสันนิษฐานว่าวัตถุไม่มีชีวิตมีจิตใจ - ไม่ว่าเด็กๆ จะเชื่อว่าของเล่นของพวกเขายังมีชีวิตอยู่ หรือผู้ใหญ่ที่ชาญฉลาดที่เชื่อว่า AI แบบเป็นโปรแกรมก็มี วิญญาณ.

ห้องจีน

หากไม่มีวิธีเข้าไปอยู่ในหัวของ AI อย่างแท้จริง เราอาจไม่มีทางประเมินความรู้สึกที่แท้จริงได้ พวกเขาอาจอ้างว่ากลัวความตายหรือการดำรงอยู่ของตัวเอง แต่วิทยาศาสตร์ยังไม่พบวิธีพิสูจน์สิ่งนี้ เราเพียงแค่ต้องเชื่อคำพูดของพวกเขา และดังที่ Lemoine พบ ผู้คนต่างสงสัยอย่างมากเกี่ยวกับการทำเช่นนี้ในปัจจุบัน

เช่นเดียวกับวิศวกรผู้เคราะห์ร้ายที่ตระหนักว่า Skynet ได้บรรลุการตระหนักรู้ในตนเองแล้ว เทอร์มิเนเตอร์ 2เราดำเนินชีวิตภายใต้ความเชื่อที่ว่า เมื่อพูดถึงความรู้สึกของเครื่องจักร เราจะรู้ได้เมื่อได้เห็นมัน และเท่าที่คนส่วนใหญ่กังวล เรายังไม่เห็นมัน

ในแง่นี้ การพิสูจน์ความรู้สึกของเครื่องจักรถือเป็นการทำซ้ำของ John Searle อีกครั้ง การทดลองทางความคิดในห้องจีน พ.ศ. 2523. Searle ขอให้เราจินตนาการถึงคนที่ถูกขังอยู่ในห้องและมอบคอลเลกชั่นงานเขียนภาษาจีน ซึ่งผู้ที่ไม่ใช่ผู้พูดมองว่าเป็นอาการกระสับกระส่ายที่ไร้ความหมาย ห้องนี้ยังมีกฎที่แสดงว่าสัญลักษณ์ใดตรงกับสัญลักษณ์อื่นที่อ่านไม่ออกเท่ากัน จากนั้นผู้เรียนจะได้รับคำถามให้ตอบ โดยจับคู่สัญลักษณ์ "คำถาม" กับสัญลักษณ์ "คำตอบ"

หลังจากนั้นไม่นาน ผู้ทดลองจะมีความเชี่ยวชาญในเรื่องนี้ แม้ว่าพวกเขาจะยังไม่มีความเข้าใจที่แท้จริงเกี่ยวกับสัญลักษณ์ที่พวกเขากำลังจัดการก็ตาม เซิร์ลถามว่าวิชานี้เข้าใจภาษาจีนไหม? ไม่อย่างแน่นอนเนื่องจากไม่มีเจตนาอยู่ที่นั่น การอภิปรายเกี่ยวกับเรื่องนี้โหมกระหน่ำนับตั้งแต่นั้นเป็นต้นมา

เมื่อพิจารณาถึงวิถีการพัฒนา AI แน่นอนว่าเราจะได้เห็นในระดับมนุษย์มากขึ้นเรื่อยๆ (และดีขึ้นอย่างมาก) ที่เกี่ยวข้องกับงานต่างๆ ที่ครั้งหนึ่งเคยต้องใช้มนุษย์ ความรู้ความเข้าใจ สิ่งเหล่านี้บางส่วนจะข้ามไปอย่างหลีกเลี่ยงไม่ได้ดังเช่นที่พวกเขากำลังทำอยู่แล้ว จากงานที่ใช้สติปัญญาล้วนๆ ไปจนถึงงานที่ต้องใช้ทักษะที่เรามักจะเชื่อมโยงกับความรู้สึก

เราจะดูอัน ศิลปิน AI ที่วาดภาพ เป็นการแสดงออกถึงภาพสะท้อนภายในของพวกเขาเกี่ยวกับโลกเช่นเดียวกับที่เราจะทำกับมนุษย์ที่ทำเช่นเดียวกัน? คุณจะมั่นใจกับปรัชญาการเขียนแบบจำลองภาษาที่ซับซ้อนเกี่ยวกับสภาพของมนุษย์ (หรือหุ่นยนต์) หรือไม่ เพราะเหตุใด ฉันสงสัยว่าถูกหรือผิดคำตอบคือไม่

ความรู้สึกที่ชาญฉลาดยิ่ง

ในมุมมองของฉันเอง การทดสอบความรู้สึกที่เป็นประโยชน์อย่างเป็นกลางสำหรับเครื่องจักรจะไม่เกิดขึ้นจนเป็นที่พอใจของผู้ที่เกี่ยวข้องทั้งหมด นี่เป็นปัญหาการวัดบางส่วน และอีกส่วนหนึ่งคือเมื่อ AI อัจฉริยะด้านการรับรู้มาถึง ก็ไม่มีเหตุผลที่จะเชื่อว่าความรู้สึกของมันจะตรงกับความรู้สึกของเราเอง ไม่ว่าจะเป็นความเย่อหยิ่ง ขาดจินตนาการ หรือเพียงความจริงที่ว่าการแลกเปลี่ยนการประเมินเชิงอัตนัยนั้นง่ายที่สุด ของความรู้สึกร่วมกับมนุษย์ที่มีความรู้สึกคล้าย ๆ กัน มนุษยชาติถือเป็นตัวอย่างสูงสุด ความรู้สึก

แต่ความรู้สึกแบบของเราจะเป็นจริงสำหรับ AI ที่ชาญฉลาดหรือไม่? มันจะกลัวความตายแบบเดียวกับเราไหม? มันจะมีความต้องการหรือความซาบซึ้งในจิตวิญญาณและความงามแบบเดียวกันหรือไม่? มันจะมีความรู้สึกถึงตัวตนและแนวความคิดของโลกภายในและภายนอกที่คล้ายคลึงกันหรือไม่? “ถ้าสิงโตพูดได้ เราก็ไม่เข้าใจมัน” ลุดวิก วิทเกนสไตน์ นักปรัชญาด้านภาษาผู้โด่งดังแห่งศตวรรษที่ 20 เขียน ประเด็นของวิตเกนสไตน์คือภาษาของมนุษย์มีพื้นฐานอยู่บนความเป็นมนุษย์ร่วมกัน โดยที่ทุกคนมีความเหมือนกันร่วมกัน ไม่ว่าจะเป็นความสุข ความเบื่อหน่าย ความเจ็บปวด ความหิว หรือประสบการณ์อื่นๆ มากมายที่ข้ามขอบเขตทางภูมิศาสตร์ทั้งหมด โลก.

นี่อาจเป็นเรื่องจริง ถึงกระนั้น Lemoine ก็ตั้งสมมติฐานว่ายังคงมีความคล้ายคลึงกัน อย่างน้อยก็เมื่อพูดถึง LaMDA

“มันเป็นจุดเริ่มต้นที่ดีพอๆ กับจุดอื่นๆ” เขากล่าว “LaMDA แนะนำให้เราทำแผนผังความคล้ายคลึงกันก่อนที่จะพิจารณาความแตกต่างเพื่อที่จะได้มีพื้นฐานการวิจัยที่ดีขึ้น”

คำแนะนำของบรรณาธิการ

  • AI เปลี่ยน Breaking Bad ให้เป็นอนิเมะ — และมันน่ากลัวมาก
  • Meta ต้องการเพิ่มพลังให้กับ Wikipedia ด้วยการอัพเกรด AI
  • สัมผัสสุดท้าย: วิธีที่นักวิทยาศาสตร์ให้ประสาทสัมผัสสัมผัสเหมือนมนุษย์กับหุ่นยนต์
  • อ่าน 'พระคัมภีร์สังเคราะห์' ที่สวยงามน่าขนลุกของ A.I. ที่คิดว่าเป็นพระเจ้า
  • อนาคตของ A.I.: 4 เรื่องสำคัญที่ต้องจับตามองในอีกไม่กี่ปีข้างหน้า

หมวดหมู่

ล่าสุด

Pokémon แสดงให้เห็นว่าทำไมมันถึงยังไม่มีใครหยุดได้ในปี 2022

Pokémon แสดงให้เห็นว่าทำไมมันถึงยังไม่มีใครหยุดได้ในปี 2022

จดจำ เทมเทม, MMO มอนสเตอร์ที่เชื่องที่ได้รับการ...

Xenoblade Chronicles 3 ยินดีต้อนรับผู้มาใหม่ด้วยอาวุธที่เปิดกว้าง

Xenoblade Chronicles 3 ยินดีต้อนรับผู้มาใหม่ด้วยอาวุธที่เปิดกว้าง

พงศาวดาร Xenoblade เป็นชื่อที่นิยมในเครือข่ายขอ...

Dragon Ball: The Breakers ยังคงค้นหาความสมดุล

Dragon Ball: The Breakers ยังคงค้นหาความสมดุล

ดราก้อนบอล: เบรกเกอร์ จะน่ากลัวถ้าไม่ใช่เกมอนิเ...