“Armas totalmente autônomas, também conhecidas como ‘robôs assassinos’, levantam sérias preocupações morais e legais porque possuem a capacidade de selecionar e engajar seus alvos sem controle humano significativo”, começa o relatório, intitulado Cuidado com a lacuna: a falta de responsabilidade para robôs assassinos. A Human Rights Watch e a Harvard Law School apresentam uma lista de preocupações sobre armas totalmente autônomas, incluindo dúvidas sobre sua capacidade distinguir alvos civis de militares, a possibilidade de uma corrida armamentista e a proliferação para militares, com pouca consideração pela lei.
Vídeos recomendados
Todas estas preocupações são agravadas pela lacuna de responsabilização por “danos ilegais causados por armas totalmente autónomas”, segundo o relatório. De acordo com as leis atuais, as partes associadas ao uso ou produção de robôs assassinos (por exemplo, operadores, comandantes, programadores, fabricantes) não seriam responsabilizados em caso de danos causados pelo robôs. A solução definitiva proposta pelo relatório é adoptar uma proibição internacional de armas totalmente autónomas.
Relacionado
- Robôs rastreadores e drones de imagem monitorarão as pás das turbinas eólicas em busca de danos
- Jibo, o robô social, está prestes a se tornar um enfeite caro
Na segunda-feira, uma reunião internacional de uma semana sobre sistemas de armas autônomos acontecerá na ONU, em Genebra. A agenda cobrirá acréscimos A Convenção sobre Certas Armas Convencionais.
“Também conhecida como convenção sobre armas desumanas, o tratado tem sido regularmente reforçado por novos protocolos sobre tecnologia militar emergente”, de acordo com o The Guardian. “As armas laser ofuscantes foram proibidas preventivamente em 1995 e desde 2006 as nações combatentes foram obrigadas a remover bombas de fragmentação não detonadas.”
O artigo é uma discussão inicial de um hipotético mundo futuro, e os autores do artigo admitem isso: “Armas totalmente autônomas não ainda não existem, mas a tecnologia está avançando em sua direção e os precursores já estão em uso ou em desenvolvimento.” Os exemplos listados no Todos os papéis respondem às ameaças automaticamente, colocando-os um passo além dos drones, que exigem que um ser humano os controle de um local remoto.
“Nenhuma responsabilização significa nenhuma dissuasão de crimes futuros, nenhuma retribuição para as vítimas, nenhuma condenação social da parte responsável”, disse Bonnie Docherty, pesquisador sênior da Divisão de Armas da Human Rights Watch e principal autor do relatório. “Os muitos obstáculos à justiça para potenciais vítimas mostram por que precisamos urgentemente de proibir armas totalmente autónomas.”
Em novembro de 2013, um artigo de opinião no The Wall Street Journal em coautoria de dois professores contestou a noção de que armas totalmente autônomas precisam ser banidas. Atores maliciosos já dispostos a abusar de tais armas não respeitariam uma proibição, argumentaram Kenneth Anderson e Matthew Waxman. “Além disso, como a automação das armas acontecerá gradualmente, seria quase impossível conceber ou fazer cumprir tal proibição.”
Anderson e Waxman também sugeriram que as armas autônomas poderiam reduzir o sofrimento e proteger vidas humanas, e não o contrário. No entanto, os co-autores disseram que uma regulamentação cuidadosa é necessária.
“As armas autônomas não são inerentemente ilegais ou antiéticas”, concluíram. “Se adaptarmos as normas legais e éticas para lidar com as armas robóticas, elas poderão ser usadas de forma responsável e eficaz no campo de batalha.”
Recomendações dos Editores
- Futuros exércitos poderiam usar equipes de drones e robôs para invadir edifícios
- Incêndio em Notre Dame: como os drones e um robô chamado Colossus ajudaram a limitar os danos
- Matar-lhe antes que bote Ovos! Robô maluco de 32 pernas se move como um ouriço-do-mar ciborgue
Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.