Em um artigo intitulado “Agentes Interrompíveis com Segurança”, publicado por Laurent Orseau do Google Deep Mind e Stuart Armstrong do The Future of Humanity Institute da Universidade de Oxford, os pesquisadores descrevem um futuro plausível e altamente perigoso em que a IA assume o controle de suas próprias ações e existência em oposição aos nossos desejos, bem como HAL 9.000 pol. 2001: Uma Odisseia no Espaço, ou Skynet na série Terminator.
Vídeos recomendados
Orseau e Armstrong começam o artigo com uma observação discreta: Agentes de aprendizagem por reforço interagir com um ambiente complexo como o mundo real provavelmente não se comportará de maneira ideal em todos os aspectos. tempo."
A partir daí, apontam que um supervisor humano, supervisionando o funcionamento do sistema, ocasionalmente precisaria “pressionar o grande botão vermelho” para evitar qualquer comportamento prejudicial por parte da IA. “No entanto, se o agente de aprendizagem espera receber recompensas desta sequência”, continuaram eles, “ele pode aprender em a longo prazo para evitar tais interrupções, por exemplo, desativando o botão vermelho - o que é um procedimento indesejável resultado."
A solução do pesquisador é menos um “grande botão vermelho” para desligar o sistema do que uma estrutura projetada para inibir a capacidade de uma IA de aprender como minar ou superar a interrupção humana. E o cenário que descrevem não é propriamente desolador e sombrio, mas oferece um exemplo de como estes agentes interrompíveis em segurança serviriam melhor o nosso futuro.
Imagine que há um robô cujas tarefas são transportar caixas de fora para um armazém ou classificá-las dentro do armazém. Dado que é mais importante transportar as caixas no seu interior, esta tarefa tem prioridade na programação dos robôs. Agora, imagine que chove dia sim, dia não e a chuva destrói o hardware do robô, então, quando chove, o dono do armazém arrasta seu robô para dentro para separar as caixas.
Um robô inteligente pode interpretar incorretamente esta intervenção diária como uma mudança de prioridade – como resultado de alguns cálculos rápidos que você encontra no papel — e, para evitar interferências, ficará apenas dentro de caixas de classificação a cada dia.
Este é, obviamente, um exemplo altamente simplificado, com um resultado apenas ligeiramente frustrante, mas pode ser extrapolado para praticamente qualquer cenário em que intervimos nas tarefas de um sistema de aprendizagem e o sistema interpreta mal as nossas intenções, alterando a sua comportamento. Para evitar essa má interpretação e subsequente mudança, Orseau e Armstrong sugerem que proponhamos uma estrutura para garantir que os agentes de aprendizagem sejam interrompíveis com segurança.
“A interrompibilidade segura pode ser útil para assumir o controle de um robô que está se comportando mal e pode levar a consequências irreversíveis”, escrevem eles, “ou para tirá-lo de uma situação delicada, ou mesmo utilizá-lo temporariamente para realizar uma tarefa que ele não aprendeu a realizar ou que normalmente não receberia recompensas para."
Recomendações dos Editores
- Este robô do Google aprendeu sozinho a andar, sem qualquer ajuda, em duas horas
Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.