
"Pilnīgi autonomi ieroči, kas pazīstami arī kā "slepkavas roboti", rada nopietnas morālas un juridiskas bažas, jo viņiem ir iespēja izvēlēties un iesaistīt savus mērķus bez jēgpilnas cilvēka kontroles,” sākas ziņojums ar nosaukumu Ņemiet vērā plaisu: slepkavas robotu atbildības trūkums. Human Rights Watch un Hārvardas Juridiskā skola izstrādā sarakstu ar bažām par pilnībā autonomiem ieročiem, tostarp šaubām par to spēju atšķirt civilos no militāriem mērķiem, bruņošanās sacensību iespējamību un ieroču izplatīšanu militārpersonām, maz ņemot vērā likumu.
Ieteiktie videoklipi
Visas šīs bažas pastiprina atbildības trūkums par "pilnīgi autonomu ieroču radīto nelikumīgo kaitējumu", teikts ziņojumā. Saskaņā ar spēkā esošajiem tiesību aktiem puses, kas saistītas ar slepkavu robotu izmantošanu vai ražošanu (piemēram, operatori, komandieri, programmētāji, ražotāji) netiktu saukti pie atbildības, ja nodarīts kaitējums roboti. Ziņojumā piedāvātais galīgais risinājums ir pieņemt starptautisku aizliegumu pilnībā autonomiem ieročiem.
Saistīts
- Kāpurķēžu roboti un attēlveidošanas droni uzraudzīs vēja turbīnu lāpstiņas, vai nav bojājumu
- Sociālais robots Džibo drīz kļūs par dārgu rotu
Pirmdien ANO Ženēvā notiks nedēļu ilga starptautiska sanāksme par autonomām ieroču sistēmām. Darba kārtībā tiks iekļauti papildinājumi Konvencija par dažiem parastajiem ieročiem.
"Līgums ir pazīstams arī kā necilvēcīgo ieroču konvencija, un tas ir regulāri pastiprināts ar jauniem protokoliem par jaunām militārajām tehnoloģijām," saskaņā ar The Guardian. "Apžilbinošie lāzerieroči tika iepriekš aizliegti 1995. gadā, un karojošām valstīm kopš 2006. gada ir bijis pienākums noņemt nesprāgušas kasešu bumbas."
Raksts ir agrīna diskusija par hipotētisku nākotnes pasauli, un tā autori atzīst: “Pilnīgi autonomi ieroči to dara. vēl neeksistē, bet tehnoloģijas virzās viņu virzienā, un prekursori jau tiek izmantoti vai izstrādāti. Piemēri, kas uzskaitīti Visi papīri automātiski reaģē uz draudiem, liekot tiem soli tālāk par droniem, kas prasa, lai cilvēks to vadītu no attālas vietas.
"Nekāda atbildība nenozīmē atturēšanu no turpmākiem noziegumiem, nekādu izrēķināšanos upuriem, nekādu atbildīgās puses sociālo nosodījumu," teica Bonija Dohertija, Human Rights Watch ieroču nodaļas vecākais pētnieks un ziņojuma galvenais autors. "Daudzie šķēršļi taisnīgumam potenciālajiem upuriem parāda, kāpēc mums steidzami jāaizliedz pilnībā autonomi ieroči."
2013. gada novembrī publikācija The Wall Street Journal, kuras līdzautori ir divi profesori apstrīdēja uzskatu, ka pilnībā autonomi ieroči ir jāaizliedz. Kenets Andersons un Metjū Vaksmans apgalvoja, ka ļaunprātīgi aktieri, kas jau ir gatavi ļaunprātīgi izmantot šādus ieročus, neievērotu aizliegumu. "Turklāt, tā kā ieroču automatizācija notiks pakāpeniski, šādu aizliegumu izstrādāt vai īstenot būtu gandrīz neiespējami."
Andersons un Vaksmens arī ierosināja, ka autonomie ieroči varētu samazināt ciešanas un aizsargāt cilvēku dzīvības, nevis pretēji. Tomēr līdzautori teica, ka ir nepieciešams rūpīgs regulējums.
"Autonomie ieroči pēc būtības nav nelikumīgi vai neētiski," viņi secināja. "Ja mēs pielāgojam juridiskās un ētiskās normas, lai risinātu robotizētos ieročus, tos varēs izmantot atbildīgi un efektīvi kaujas laukā."
Redaktoru ieteikumi
- Nākotnes armijas varētu izmantot dronu un robotu komandas, lai vētītu ēkas
- Dievmātes ugunsgrēks: kā droni un robots ar nosaukumu Colossus palīdzēja ierobežot bojājumus
- Nogalini to, pirms tas dēj olas! Trakais 32 kāju robots pārvietojas kā kiborgs jūras ezis
Uzlabojiet savu dzīvesveiduDigitālās tendences palīdz lasītājiem sekot līdzi steidzīgajai tehnoloģiju pasaulei, izmantojot visas jaunākās ziņas, jautrus produktu apskatus, ieskatu saturošus rakstus un unikālus ieskatus.