ผู้บริหารของ Google สองคนกล่าวเมื่อวันศุกร์ว่าอคติในด้านปัญญาประดิษฐ์กำลังส่งผลกระทบต่อชุมชนชายขอบในอเมริกาอยู่แล้ว และจำเป็นต้องดำเนินการมากกว่านี้เพื่อให้แน่ใจว่าสิ่งนี้จะไม่เกิดขึ้น เอ็กซ์ อายอี, เป็นผู้นำในการเข้าถึงนวัตกรรมที่มีความรับผิดชอบที่ Google และ แองเจล่า วิลเลียมส์ผู้จัดการนโยบายของ Google พูดที่ (ไม่ใช่ IRL) การประชุมสุดยอดแห่งความภาคภูมิใจซึ่งเป็นงานที่จัดโดย Lesbians Who Tech & Allies ซึ่งเป็นองค์กร LGBTQ ที่เน้นเทคโนโลยีที่ใหญ่ที่สุดในโลกสำหรับผู้หญิง คนที่ไม่ใช่ไบนารี่ และคนข้ามเพศทั่วโลก
ใน แยกพูดคุยพวกเขากล่าวถึงวิธีที่เทคโนโลยีการเรียนรู้ของเครื่องสามารถนำมาใช้เพื่อทำร้ายชุมชนคนผิวสีและชุมชนอื่นๆ ในอเมริกา และในวงกว้างมากขึ้นทั่วโลก
วิดีโอแนะนำ
อคติในอัลกอริทึมไม่ได้เป็นเพียงปัญหาข้อมูล การเลือกใช้ AI สามารถมีอคติได้ วิธีที่อัลกอริทึมเรียนรู้สามารถมีอคติได้ และวิธีที่ผู้ใช้ได้รับผลกระทบ/โต้ตอบ/รับรู้ระบบสามารถเสริมสร้างอคติได้! เช็คเอาท์ @timnitGebruงานของเพื่อเรียนรู้เพิ่มเติม!
— เอ็กซ์ อายเอ้??? (@TechWithX) 26 มิถุนายน 2020
วิลเลียมส์กล่าวถึงการใช้ A.I. สำหรับการเฝ้าระวังที่ครอบคลุม มีบทบาทใน
การตรวจตรามากเกินไปและการนำไปปฏิบัติเพื่อการพิจารณาคดีที่มีอคติ “[ไม่ใช่] ไม่ใช่ว่าเทคโนโลยีเป็นการเหยียดเชื้อชาติ แต่เราสามารถเขียนโค้ดอคติโดยไม่รู้ตัวของเราเองลงในเทคโนโลยีได้” เธอกล่าว วิลเลียมส์เน้นย้ำถึง กรณีของโรเบิร์ต จูเลียน-บอร์ชัค วิลเลียมส์ชายชาวอเมริกันเชื้อสายแอฟริกันจากเมืองดีทรอยต์ ซึ่งเพิ่งถูกจับกุมอย่างไม่ถูกต้องเมื่อเร็วๆ นี้ หลังจากระบบจดจำใบหน้าจับคู่ภาพถ่ายของเขากับภาพความปลอดภัยของโจรขโมยของในร้านอย่างไม่ถูกต้อง การศึกษาก่อนหน้านี้แสดงให้เห็นว่าระบบจดจำใบหน้าสามารถต่อสู้ดิ้นรนได้ แยกแยะระหว่างคนผิวดำที่แตกต่างกัน. “นี่คือที่ที่ A.I. … การสอดแนมอาจผิดพลาดอย่างมากในโลกแห่งความเป็นจริง” วิลเลียมส์กล่าวเอ็กซ์ Eyeé ยังกล่าวถึงวิธีที่ A.I. สามารถช่วย “ขยายขนาดและเสริมสร้างอคติที่ไม่ยุติธรรม” นอกเหนือจากการใช้แบบกึ่งดิสโทเปียแล้ว ยังมีการใช้ที่ดึงดูดความสนใจอีกด้วย A.I., Eyeé มุ่งเน้นไปที่วิธีที่อคติอาจคืบคลานไปสู่การใช้เทคโนโลยีในชีวิตประจำวันที่ดูเหมือนเป็นเรื่องธรรมดามากขึ้น ซึ่งรวมถึงของ Google เองด้วย เครื่องมือ “ที่ Google เราไม่ใช่คนแปลกหน้าสำหรับความท้าทายเหล่านี้” Eyeé กล่าว “ในช่วงไม่กี่ปีที่ผ่านมา … เราตกเป็นหัวข้อข่าวหลายครั้งว่าอัลกอริทึมของเราส่งผลเสียต่อผู้คนอย่างไร” ตัวอย่างเช่น Google ได้พัฒนาเครื่องมือสำหรับ การจำแนกความเป็นพิษของความคิดเห็นออนไลน์. แม้ว่าสิ่งนี้จะมีประโยชน์มาก แต่ก็เป็นปัญหาเช่นกัน: วลีเช่น "ฉันเป็นผู้หญิงที่เป็นเกย์ผิวดำ" ในตอนแรกถูกจัดประเภทไว้มากกว่า เป็นพิษมากกว่า “ฉันเป็นคนผิวขาว” นี่เป็นเพราะช่องว่างในชุดข้อมูลการฝึกอบรม โดยมีการสนทนาเกี่ยวกับตัวตนบางอย่างมากกว่า คนอื่น.
ไม่มีการแก้ไขปัญหาเหล่านี้อย่างครอบคลุม ผู้บริหารของ Google สองคนกล่าว เมื่อใดก็ตามที่พบปัญหา Google จะพยายามขจัดอคติ แต่ขอบเขตของตำแหน่งที่เป็นไปได้ที่อคติสามารถเข้าสู่ระบบได้ตั้งแต่การออกแบบอัลกอริธึมไปจนถึงระบบของพวกเขา การปรับใช้กับบริบททางสังคมที่มีการผลิตข้อมูล - หมายความว่าจะมีปัญหาอยู่เสมอ ตัวอย่าง. สิ่งสำคัญคือการตระหนักถึงสิ่งนี้ เพื่อให้สามารถพิจารณาเครื่องมือดังกล่าวได้อย่างละเอียด และเพื่อให้ชุมชนที่หลากหลายสามารถแสดงความคิดเห็นเกี่ยวกับการใช้เทคโนโลยีเหล่านี้ได้
คำแนะนำของบรรณาธิการ
- สามารถเอไอ เอาชนะวิศวกรมนุษย์ในการออกแบบไมโครชิปได้หรือ? Google คิดเช่นนั้น
- BigSleep A.I. ก็เหมือนกับ Google Image Search สำหรับรูปภาพที่ยังไม่มี
- Google นำมนุษย์กลับมารับหน้าที่กลั่นกรองเนื้อหา YouTube จาก A.I.
- ข่าวปลอม? AI. อัลกอริธึมเผยให้เห็นอคติทางการเมืองในเรื่องราวที่คุณอ่าน
- AI. การเพิ่มสเกลทำให้ภาพยนตร์เรื่องนี้จากปี 1896 ดูเหมือนถ่ายด้วยความละเอียด 4K ที่น่าทึ่ง
อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร