“อาวุธอัตโนมัติเต็มรูปแบบหรือที่เรียกว่า 'หุ่นยนต์นักฆ่า' ก่อให้เกิดความกังวลด้านศีลธรรมและกฎหมายอย่างร้ายแรง เนื่องจากพวกมันจะ มีความสามารถในการเลือกและมีส่วนร่วมกับเป้าหมายโดยไม่ต้องควบคุมโดยมนุษย์” รายงานเริ่มต้นในหัวข้อ Mind the Gap: การขาดความรับผิดชอบสำหรับหุ่นยนต์นักฆ่า. Human Rights Watch และ Harvard Law School จัดทำรายการข้อกังวลเกี่ยวกับอาวุธอัตโนมัติเต็มรูปแบบ รวมถึงข้อสงสัยเกี่ยวกับความสามารถของพวกเขา เพื่อแยกแยะพลเรือนออกจากเป้าหมายทางทหาร ความเป็นไปได้ของเชื้อชาติทางอาวุธ และการแพร่กระจายไปยังกองทัพโดยไม่คำนึงถึง กฎ.
วิดีโอแนะนำ
ข้อกังวลทั้งหมดเหล่านี้ประกอบขึ้นด้วยช่องว่างความรับผิดชอบสำหรับ "ความเสียหายที่ผิดกฎหมายที่เกิดจากอาวุธอัตโนมัติเต็มรูปแบบ" ตามรายงาน ภายใต้กฎหมายปัจจุบัน ฝ่ายที่เกี่ยวข้องกับการใช้หรือการผลิตหุ่นยนต์นักฆ่า (เช่น ผู้ปฏิบัติงาน ผู้บังคับบัญชา โปรแกรมเมอร์ ผู้ผลิต) จะไม่รับผิดชอบในกรณีของอันตรายที่เกิดจาก หุ่นยนต์ แนวทางแก้ไขขั้นสูงสุดที่เสนอโดยรายงานนี้คือการนำการห้ามใช้อาวุธอัตโนมัติเต็มรูปแบบระหว่างประเทศมาใช้
ที่เกี่ยวข้อง
- หุ่นยนต์รวบรวมข้อมูลและโดรนถ่ายภาพจะตรวจสอบความเสียหายของใบพัดกังหันลม
- Jibo หุ่นยนต์สังคมกำลังจะกลายเป็นเครื่องประดับราคาแพง
ในวันจันทร์ การประชุมระหว่างประเทศนานหนึ่งสัปดาห์เกี่ยวกับระบบอาวุธอัตโนมัติจะจัดขึ้นที่องค์การสหประชาชาติในกรุงเจนีวา วาระการประชุมจะครอบคลุมเพิ่มเติมถึง อนุสัญญาว่าด้วยอาวุธตามสัญญาบางประเภท.
“สนธิสัญญาดังกล่าวเป็นที่รู้จักในนามอนุสัญญาว่าด้วยอาวุธที่ไร้มนุษยธรรม โดยได้รับการสนับสนุนอย่างสม่ำเสมอด้วยระเบียบการใหม่ๆ เกี่ยวกับเทคโนโลยีทางทหารที่เกิดขึ้นใหม่” ตามรายงานของเดอะการ์เดียน. “อาวุธเลเซอร์ทำให้ตาบอดถูกห้ามล่วงหน้าในปี 1995 และประเทศคู่ต่อสู้ตั้งแต่ปี 2549 จำเป็นต้องกำจัดระเบิดคลัสเตอร์ที่ยังไม่ระเบิด”
บทความนี้เป็นการอภิปรายในช่วงแรกเกี่ยวกับโลกอนาคตสมมุติ และผู้เขียนรายงานยอมรับมาก: “อาวุธอัตโนมัติเต็มรูปแบบทำ ยังไม่มีอยู่จริง แต่เทคโนโลยีกำลังเคลื่อนไปในทิศทางนั้น และสารตั้งต้นก็ถูกใช้งานหรือพัฒนาไปแล้ว” ตัวอย่างที่ระบุไว้ใน กระดาษทั้งหมดตอบสนองต่อภัยคุกคามโดยอัตโนมัติ ทำให้พวกเขาก้าวไปไกลกว่าโดรน ซึ่งต้องใช้มนุษย์ในการควบคุมมันจากระยะไกล
“การไม่รับผิดชอบหมายถึงการไม่ป้องปรามอาชญากรรมในอนาคต ไม่มีการตอบโต้ต่อเหยื่อ ไม่มีการประณามทางสังคมของผู้รับผิดชอบ” บอนนี โดเชอร์ตี กล่าวนักวิจัยอาวุโสแผนกอาวุธที่ Human Rights Watch และผู้เขียนหลักของรายงาน “อุปสรรคมากมายต่อความยุติธรรมสำหรับผู้ที่อาจเป็นเหยื่อแสดงให้เห็นว่าเหตุใดเราจึงจำเป็นต้องสั่งห้ามอาวุธอัตโนมัติเต็มรูปแบบอย่างเร่งด่วน”
ในเดือนพฤศจิกายน 2556 op-ed ใน The Wall Street Journal ร่วมเขียนโดยอาจารย์สองคน โต้แย้งความคิดที่ว่าอาวุธอัตโนมัติโดยสมบูรณ์จำเป็นต้องถูกห้าม นักแสดงที่เป็นอันตรายซึ่งมีแนวโน้มที่จะใช้อาวุธดังกล่าวในทางที่ผิดจะไม่เคารพคำสั่งห้าม Kenneth Anderson และ Matthew Waxman แย้ง “ยิ่งกว่านั้น เนื่องจากระบบอัตโนมัติของอาวุธจะเกิดขึ้นแบบค่อยเป็นค่อยไป จึงแทบจะเป็นไปไม่ได้เลยที่จะออกแบบหรือบังคับใช้การห้ามดังกล่าว”
แอนเดอร์สันและแวกซ์แมนยังเสนอแนะว่าอาวุธอัตโนมัติสามารถลดความทุกข์ทรมานและปกป้องชีวิตมนุษย์ได้มากกว่าสิ่งที่ตรงกันข้าม อย่างไรก็ตาม ผู้เขียนร่วมกล่าวว่ามีการรับประกันกฎระเบียบที่ระมัดระวัง
“อาวุธอัตโนมัติไม่ได้ผิดกฎหมายหรือผิดจริยธรรมโดยเนื้อแท้” พวกเขาสรุป “หากเราปรับบรรทัดฐานทางกฎหมายและจริยธรรมเพื่อจัดการกับอาวุธหุ่นยนต์ อาวุธเหล่านี้จะสามารถนำมาใช้ในสนามรบได้อย่างมีความรับผิดชอบและมีประสิทธิภาพ”
คำแนะนำของบรรณาธิการ
- กองทัพในอนาคตสามารถใช้ทีมโดรนและหุ่นยนต์เพื่อโจมตีอาคารต่างๆ
- ไฟไหม้นอเทรอดาม: โดรนและหุ่นยนต์ชื่อโคลอสซัสช่วยลดความเสียหายได้อย่างไร
- ฆ่ามันก่อนที่มันจะวางไข่! หุ่นยนต์บ้า 32 ขาเคลื่อนไหวเหมือนเม่นทะเล
อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร