OSN vyzvala k zákazu zabijáckých robotů, než se stanou realitou

Zabijácký robot
Human Rights Watch a Mezinárodní klinika lidských práv Harvard Law School mají pro OSN silnou a poutavou zprávu: „Zakažte zabijácké roboty“. The dvě skupiny se zabývají proti plně autonomním zbraním v 38stránkové zprávě zveřejněné před mezinárodním setkáním o zmíněných zbraních, které začíná v dubnu 13.

„Plně autonomní zbraně, známé také jako ‚zabijací roboti‘, vzbuzují vážné morální a právní obavy, protože by mají schopnost vybrat a zapojit své cíle bez smysluplné lidské kontroly,“ začíná zpráva s názvem Mind the Gap: Nedostatek odpovědnosti za zabijácké roboty. Human Rights Watch a Harvard Law School uvádějí seznam obav ohledně plně autonomních zbraní, včetně pochyb o jejich schopnosti odlišit civilní cíle od vojenských cílů, možnost závodů ve zbrojení a šíření zbraní do armády s malým ohledem na zákon.

Doporučená videa

Všechny tyto obavy jsou podle zprávy umocněny mezerou v odpovědnosti za „nezákonné škody způsobené plně autonomními zbraněmi“. Podle současných zákonů mohou strany spojené s používáním nebo výrobou zabijáckých robotů (např. velitelé, programátoři, výrobci) nenesou odpovědnost v případě škody způsobené tím robotů. Konečným řešením navrhovaným ve zprávě je přijetí mezinárodního zákazu plně autonomních zbraní.

Příbuzný

  • Pásové roboty a zobrazovací drony budou monitorovat poškození lopatek větrných turbín
  • Sociální robot Jibo se brzy stane drahou ozdobou

V pondělí se v OSN v Ženevě uskuteční týdenní mezinárodní setkání o autonomních zbraňových systémech. Program bude zahrnovat doplnění Úmluva o některých konvenčních zbraních.

"Také známá jako úmluva o nelidských zbraních, smlouva byla pravidelně posilována novými protokoly o vznikajících vojenských technologiích," podle The Guardian. "Oslepující laserové zbraně byly preventivně zakázány v roce 1995 a bojující státy od roku 2006 musely odstranit nevybuchlé kazetové bomby."

Článek je ranou diskusí o hypotetickém budoucím světě a autoři článku to přiznávají: „Plně autonomní zbraně dělají ještě neexistují, ale technologie se ubírá jejich směrem a prekurzory se již používají nebo vyvíjejí.“ Příklady uvedené v papír všichni reagují na hrozby automaticky, čímž jsou o krok dále než drony, které vyžadují, aby je člověk ovládal ze vzdáleného místa.

"Žádná odpovědnost neznamená žádné odstrašení od budoucích zločinů, žádnou odplatu pro oběti, žádné společenské odsouzení odpovědné strany," řekla Bonnie Dochertyová, vedoucí výzkumný pracovník Arms Division v Human Rights Watch a hlavní autor zprávy. "Mnoho překážek spravedlnosti pro potenciální oběti ukazuje, proč naléhavě potřebujeme zakázat plně autonomní zbraně."

V listopadu 2013 op-ed v The Wall Street Journal spoluautoři dvou profesorů zpochybnil názor, že je třeba zakázat plně autonomní zbraně. Kenneth Anderson a Matthew Waxman tvrdili, že zlomyslní aktéři, kteří jsou již ochotni takové zbraně zneužít, nebudou respektovat zákaz. "Navíc, protože automatizace zbraní bude probíhat postupně, bylo by téměř nemožné navrhnout nebo vynutit takový zákaz."

Anderson a Waxman také navrhli, že autonomní zbraně by mohly snížit utrpení a chránit lidské životy spíše než naopak. Nicméně spoluautoři uvedli, že pečlivá regulace je opodstatněná.

"Autonomní zbraně nejsou ze své podstaty nezákonné ani neetické," uzavřeli. "Pokud přizpůsobíme právní a etické normy pro řešení robotických zbraní, lze je na bojišti používat zodpovědně a efektivně."

[Obrázek s laskavým svolením Digitální bouře/Shutterstock]

Doporučení redakce

  • Budoucí armády by mohly využívat týmy dronů a robotů k útokům na budovy
  • Oheň Notre Dame: Jak drony a robot jménem Colossus pomohli omezit škody
  • Zabij to než to naklade vajíčka! Bláznivý 32nohý robot se pohybuje jako kyborg mořský ježek

Upgradujte svůj životní stylDigitální trendy pomáhají čtenářům mít přehled o rychle se měnícím světě technologií se všemi nejnovějšími zprávami, zábavnými recenzemi produktů, zasvěcenými úvodníky a jedinečnými náhledy.