
"إن الأسلحة المستقلة بالكامل، والمعروفة أيضًا باسم "الروبوتات القاتلة"، تثير مخاوف أخلاقية وقانونية خطيرة لأنها قد تفعل ذلك "يمتلكون القدرة على اختيار أهدافهم والاشتباك معها دون سيطرة بشرية ذات معنى"، يبدأ التقرير بعنوان اهتموا بالفجوة: غياب المساءلة عن الروبوتات القاتلة. تضع هيومن رايتس ووتش وكلية الحقوق بجامعة هارفارد قائمة بالمخاوف بشأن الأسلحة المستقلة بالكامل، بما في ذلك الشكوك حول قدرتها للتمييز بين الأهداف المدنية والعسكرية، واحتمال حدوث سباق تسلح، وانتشار الأسلحة إلى الجيوش مع القليل من الاهتمام بالأهداف قانون.
مقاطع الفيديو الموصى بها
وتتفاقم كل هذه المخاوف بسبب فجوة المساءلة عن "الضرر غير القانوني الذي تسببه الأسلحة المستقلة بالكامل"، وفقًا للتقرير. وبموجب القوانين الحالية، فإن الأطراف المرتبطة باستخدام أو إنتاج الروبوتات القاتلة (مثل المشغلين، القادة والمبرمجين والمصنعين) لن يتحملوا المسؤولية في حالة الضرر الناجم عن الروبوتات. والحل النهائي الذي يقترحه التقرير هو فرض حظر دولي على الأسلحة ذاتية التشغيل بالكامل.
متعلق ب
- ستقوم الروبوتات الزاحفة وطائرات التصوير بدون طيار بمراقبة شفرات توربينات الرياح بحثًا عن الضرر
- Jibo، الروبوت الاجتماعي على وشك أن يصبح زخرفة باهظة الثمن
ومن المقرر أن يُعقد يوم الاثنين اجتماع دولي يستمر أسبوعًا حول أنظمة الأسلحة المستقلة في الأمم المتحدة بجنيف. وسيغطي جدول الأعمال الإضافات إلى اتفاقية الأسلحة التقليدية المعينة.
"المعروفة أيضًا باسم اتفاقية الأسلحة اللاإنسانية، وقد تم تعزيز المعاهدة بانتظام من خلال بروتوكولات جديدة بشأن التكنولوجيا العسكرية الناشئة". وفقا لصحيفة الغارديان. "تم حظر أسلحة الليزر المسببة للعمى بشكل وقائي في عام 1995، وأصبح مطلوبا من الدول المقاتلة منذ عام 2006 إزالة القنابل العنقودية غير المنفجرة."
تعتبر هذه الورقة مناقشة مبكرة لعالم مستقبلي افتراضي، ويعترف مؤلفو الورقة بذلك: "إن الأسلحة المستقلة بالكامل تفعل ذلك". ليست موجودة بعد، لكن التكنولوجيا تتحرك في اتجاهها، والسلائف قيد الاستخدام أو التطوير بالفعل. الأمثلة المذكورة في تستجيب جميع الورق للتهديدات تلقائيًا، مما يضعها خطوة أبعد من الطائرات بدون طيار، والتي تتطلب من الإنسان التحكم بها من مكان بعيد.
"لا مساءلة تعني عدم وجود ردع للجرائم المستقبلية، ولا قصاص للضحايا، ولا إدانة اجتماعية للطرف المسؤول" قالت بوني دوكيرتيباحث أول في قسم الأسلحة في هيومن رايتس ووتش والمؤلف الرئيسي للتقرير. "إن العقبات العديدة التي تعترض تحقيق العدالة للضحايا المحتملين تظهر سبب حاجتنا الملحة إلى حظر الأسلحة ذاتية التشغيل بالكامل".
في نوفمبر 2013، مقال افتتاحي في صحيفة وول ستريت جورنال شارك في تأليفه اثنان من الأساتذة عارضت فكرة ضرورة حظر الأسلحة ذاتية التشغيل بالكامل. وقال كينيث أندرسون وماثيو واكسمان إن الجهات الفاعلة الخبيثة المستعدة بالفعل لإساءة استخدام مثل هذه الأسلحة لن تحترم الحظر. "علاوة على ذلك، ونظرًا لأن أتمتة الأسلحة ستحدث تدريجيًا، فسيكون من المستحيل تقريبًا تصميم مثل هذا الحظر أو تنفيذه".
واقترح أندرسون وواكسمان أيضًا أن الأسلحة المستقلة يمكن أن تقلل المعاناة وتحمي حياة البشر وليس العكس. ومع ذلك، قال المؤلفون المشاركون إن هناك ما يبرر التنظيم الدقيق.
وخلصوا إلى أن "الأسلحة المستقلة ليست غير قانونية أو غير أخلاقية بطبيعتها". "إذا قمنا بتكييف المعايير القانونية والأخلاقية للتعامل مع الأسلحة الآلية، فيمكن استخدامها بشكل مسؤول وفعال في ساحة المعركة."
توصيات المحررين
- يمكن للجيوش المستقبلية استخدام فرق من الطائرات بدون طيار والروبوتات لاقتحام المباني
- حريق نوتردام: كيف ساعدت الطائرات بدون طيار والروبوت المسمى Colossus في الحد من الأضرار
- أقتله قبل أن يضع البيض! روبوت مجنون ذو 32 ساقًا يتحرك مثل قنفذ البحر سايبورغ
ترقية نمط حياتكتساعد الاتجاهات الرقمية القراء على متابعة عالم التكنولوجيا سريع الخطى من خلال أحدث الأخبار ومراجعات المنتجات الممتعة والمقالات الافتتاحية الثاقبة ونظرات خاطفة فريدة من نوعها.