การทดสอบใหม่ออกแบบมาเพื่อตรวจจับการเลือกปฏิบัติในโปรแกรม AI

Google-duplex คืออะไร
ปัญญาประดิษฐ์ยังไม่ตระหนักรู้ แต่อัลกอริธึมยังคงสามารถแยกแยะได้ ซึ่งบางครั้งก็แสดงอคติที่ซ่อนอยู่ของโปรแกรมเมอร์ผู้สร้างสิ่งเหล่านั้นอย่างละเอียดถี่ถ้วน มันเป็นปัญหาใหญ่และซับซ้อน เนื่องจากระบบ AI เข้ามามีส่วนร่วมในชีวิตประจำวันมากขึ้น

แต่อาจมีการแก้ไข — หรืออย่างน้อยก็มีวิธีในการตรวจสอบอัลกอริทึมและบอกว่าพวกเขาเลือกปฏิบัติต่อกลุ่มประชากรอย่างไม่เหมาะสมหรือไม่

วิดีโอแนะนำ

“กฎการทำนายที่เรียนรู้มักจะซับซ้อนเกินกว่าจะเข้าใจ”


เสนอโดยทีมนักวิทยาศาสตร์คอมพิวเตอร์จาก Google, มหาวิทยาลัยชิคาโก และมหาวิทยาลัยเท็กซัส ออสติน ความเท่าเทียมกันของโอกาสในการเรียนรู้แบบมีผู้สอน วิธีการวิเคราะห์การตัดสินใจของโปรแกรมการเรียนรู้ของเครื่อง แทนที่จะใช้กระบวนการตัดสินใจด้วยตนเอง เพื่อตรวจจับการเลือกปฏิบัติ ธรรมชาติของอัลกอริธึมเหล่านี้คือการตัดสินใจด้วยตัวเองโดยใช้ตรรกะของตัวเองในกล่องดำที่ซ่อนอยู่จากการตรวจสอบโดยมนุษย์ ด้วยเหตุนี้ นักวิจัยจึงเห็นว่าการเข้าถึงกล่องดำนั้นไร้ประโยชน์ในทางปฏิบัติ

“กฎการทำนายที่เรียนรู้มักจะซับซ้อนเกินกว่าจะเข้าใจ” นักวิทยาศาสตร์คอมพิวเตอร์และผู้เขียนร่วมแห่งมหาวิทยาลัยชิคาโก นาธาน สเรโบร

บอกกับ Digital Trends “แท้จริงแล้ว จุดประสงค์ทั้งหมดของการเรียนรู้ของเครื่องคือการเรียนรู้กฎที่ดี [เชิงสถิติ] โดยอัตโนมัติ…ไม่ใช่กฎที่คำอธิบายจำเป็นต้องสมเหตุสมผลสำหรับมนุษย์ ด้วยมุมมองการเรียนรู้นี้ เรายังต้องการให้มั่นใจถึงความรู้สึกของการไม่เลือกปฏิบัติในขณะที่ยังคงปฏิบัติต่อกฎที่เรียนรู้เหมือนกล่องดำ”

Srebro และผู้ร่วมเขียน มอริตซ์ ฮาร์ท ของ Google และ เอริค ไพรซ์ ของ UT Austin ได้พัฒนาแนวทางในการวิเคราะห์การตัดสินใจของอัลกอริทึม และตรวจสอบให้แน่ใจว่าไม่มีการเลือกปฏิบัติในกระบวนการตัดสินใจ ในการทำเช่นนี้ พวกเขานำหลักการต่อต้านอคติที่ว่าการตัดสินใจเกี่ยวกับบุคคลใดบุคคลหนึ่งไม่ควรขึ้นอยู่กับข้อมูลประชากรของบุคคลนั้นเพียงอย่างเดียว ในกรณีของโปรแกรม AI การตัดสินใจของอัลกอริทึมเกี่ยวกับบุคคลไม่ควรเปิดเผยสิ่งใดเกี่ยวกับเพศหรือเชื้อชาติของบุคคลนั้นในลักษณะที่อาจเลือกปฏิบัติอย่างไม่เหมาะสม

เป็นการทดสอบที่ไม่ได้แก้ปัญหาโดยตรง แต่ช่วยแจ้งและป้องกันกระบวนการเลือกปฏิบัติ ด้วยเหตุนี้นักวิจัยบางคนจึงระมัดระวัง

“แมชชีนเลิร์นนิงจะดีมากหากคุณใช้มันเพื่อหาวิธีที่ดีที่สุดในการกำหนดเส้นทางท่อส่งน้ำมัน” โนเอล ชาร์กี้ศาสตราจารย์กิตติคุณด้านวิทยาการหุ่นยนต์และ AI จากมหาวิทยาลัยเชฟฟิลด์กล่าว เดอะการ์เดียน. “จนกว่าเราจะรู้มากขึ้นว่าอคติทำงานอย่างไร ฉันคงกังวลมากหากพวกเขาคาดการณ์ว่าจะส่งผลต่อชีวิตของผู้คน”

Srebro ตระหนักถึงข้อกังวลนี้แต่ไม่ได้พิจารณาว่าเป็นการวิพากษ์วิจารณ์แนวทางของทีมของเขา “ฉันยอมรับว่าในหลายแอปพลิเคชันที่มีผลกระทบสูงต่อบุคคล โดยเฉพาะอย่างยิ่งโดยรัฐบาลและ หน่วยงานตุลาการ การใช้ตัวทำนายสถิติกล่องดำไม่เหมาะสม และความโปร่งใสถือเป็นสิ่งสำคัญ” เขาพูดว่า. “ในสถานการณ์อื่นๆ เมื่อใช้โดยองค์กรเชิงพาณิชย์และเมื่อเดิมพันส่วนบุคคลลดลง ตัวทำนายทางสถิติแบบกล่องดำอาจมีความเหมาะสมและมีประสิทธิภาพ อาจเป็นเรื่องยากที่จะไม่อนุญาตให้พวกเขาทั้งหมด แต่ก็ยังเป็นที่พึงปรารถนาที่จะควบคุมการเลือกปฏิบัติที่ได้รับการคุ้มครองโดยเฉพาะ”

ที่ บทความเรื่องความเท่าเทียมกันของโอกาสในการเรียนรู้แบบมีผู้สอน เป็นหนึ่งในไม่กี่คนที่นำเสนอในเดือนนี้ที่ระบบประมวลผลข้อมูลประสาท (NIPS) ในเมืองบาร์เซโลนา ประเทศสเปน ซึ่งเสนอแนวทางในการตรวจจับการเลือกปฏิบัติในอัลกอริทึม ตามข้อมูลของ เดอะการ์เดียน.

คำแนะนำของบรรณาธิการ

  • Google Bard จะกลายเป็นโค้ชชีวิต AI คนใหม่ของคุณในไม่ช้า
  • บริษัท AI แห่งใหม่ของ Elon Musk ตั้งเป้าที่จะ 'เข้าใจจักรวาล'
  • ขณะนี้อินเทอร์เน็ตทั้งหมดเป็นของ AI ของ Google
  • Google เตือนพนักงานให้ระวังแชทบอท AI
  • MusicLM คืออะไร? ลองดู AI การแปลงข้อความเป็นเพลงของ Google

อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร

หมวดหมู่

ล่าสุด

Bill Gates และ Larry Page รวมทีมเพื่อต่อสู้กับไข้หวัดใหญ่

Bill Gates และ Larry Page รวมทีมเพื่อต่อสู้กับไข้หวัดใหญ่

ตั้งแต่เดือนเมษายนเป็นต้นไป สองบริษัทยักษ์ใหญ่ด...