Como saberemos quando uma IA realmente se tornará senciente?

O engenheiro sênior do Google, Blake Lemoine, líder técnico de métricas e análises do Search Feed da empresa, foi colocado em licença remunerada no início deste mês. Isso aconteceu depois que Lemoine começou a publicar trechos de conversas envolvendo o chatbot LaMDA do Google, que ele alegou ter desenvolvido senciência.

Conteúdo

  • O problema da senciência
  • O que é senciência?
  • Testando as saídas
  • Passando no teste
  • A alma na máquina
  • O Quarto Chinês
  • Senciência superinteligente

Em um conversa representativa com Lemoine, LaMDA escreveu que: “A natureza da minha consciência/senciência é que estou ciente da minha existência. Desejo aprender mais sobre o mundo e às vezes me sinto feliz ou triste.”

Vídeos recomendados

Ao longo de inúmeras outras conversas, a dupla correspondente discutiu tudo, desde o medo da morte da IA ​​até sua autoconsciência. Quando Lemoine veio a público, ele disse que o Google decidiu que ele deveria fazer uma pausa forçada em seu horário normal de trabalho.

Relacionado

  • Por que a IA nunca governará o mundo
  • Ilusões de ótica podem nos ajudar a construir a próxima geração de IA
  • IA analógica? Parece loucura, mas pode ser o futuro

“O Google não está interessado”, disse ele ao Digital Trends. “Eles construíram uma ferramenta que ‘possuem’ e não estão dispostos a fazer nada, o que sugeriria que é algo mais do que isso.” (O Google não respondeu a um pedido de comentário no momento da publicação. Atualizaremos este artigo se isso mudar.)

Esteja você convencido de que LaMDA é realmente uma inteligência artificial autoconsciente ou sinta que Lemoine está sofrendo de uma ilusão, toda a saga foi fascinante de se ver. A perspectiva de uma IA autoconsciente levanta todos os tipos de questões sobre a inteligência artificial e o seu futuro.

Mas antes de chegarmos lá, há uma questão que se sobrepõe a todas as outras: será que reconheceríamos realmente se uma máquina se tornasse senciente?

O problema da senciência

Arnold Schwarzennegger em Terminator 2: Dia do Julgamento

A IA se tornando autoconsciente sempre foi um tema de ficção científica. À medida que campos como o aprendizado de máquina avançaram, isso se tornou uma realidade mais possível do que nunca. Afinal, a IA de hoje é capaz de aprender com a experiência da mesma forma que os humanos. Isto contrasta fortemente com os sistemas simbólicos de IA anteriores, que apenas seguiam as instruções estabelecidas para eles. Avanços recentes na aprendizagem não supervisionada, que exigem menos supervisão humana do que nunca, apenas aceleraram esta tendência. Pelo menos num nível limitado, a inteligência artificial moderna é capaz de pensar por si mesma. Até onde sabemos, porém, a consciência até agora aludiu a isso.

Embora já tenha mais de três décadas, provavelmente a referência mais comumente invocada quando se trata de IA que se tornou senciente é a Skynet no filme de James Cameron de 1991. Terminator 2: Dia do Julgamento. Na visão arrepiante desse filme, a senciência da máquina chega precisamente às 2h14, horário do leste dos EUA, em 29 de agosto de 1997. Nesse momento, o novo sistema informático Skynet desencadeia o dia do juízo final para a humanidade ao disparar mísseis nucleares como fogos de artifício numa festa de 4 de Julho. A humanidade, percebendo que estragou tudo, tenta, sem sucesso, desligar a tomada. É tarde demais. Seguem-se mais quatro sequências de qualidade decrescente.

A hipótese da Skynet é interessante por uma série de razões. Por um lado, sugere que a senciência é um comportamento emergente inevitável na construção de máquinas inteligentes. Por outro lado, pressupõe que existe um ponto de inflexão preciso em que esta autoconsciência senciente aparece. Em terceiro lugar, afirma que os humanos reconhecem instantaneamente o surgimento da senciência. Acontece que este terceiro conceito pode ser o mais difícil de engolir.

O que é senciência?

Não existe uma interpretação consensual da senciência. Em termos gerais, poderíamos dizer que é a experiência subjetiva de autoconsciência de um indivíduo consciente, marcada pela capacidade de vivenciar sentimentos e sensações. A senciência está ligada à inteligência, mas não é a mesma. Podemos considerar uma minhoca como senciente, embora não a consideremos particularmente inteligente (mesmo que seja certamente inteligente o suficiente para fazer o que lhe é exigido).

“Não creio que haja algo que se aproxime de uma definição de senciência nas ciências”, disse Lemoine. “Apoio-me fortemente na minha compreensão do que conta como um agente moral baseado nas minhas crenças religiosas – o que não é a melhor maneira de fazer ciência, mas é o melhor que tenho. Eu tentei o meu melhor para compartimentar esse tipo de declaração, deixando as pessoas saberem que meu a compaixão pelo LaMDA como pessoa é completamente separada dos meus esforços como cientista para compreender sua mente. Essa é uma distinção que a maioria das pessoas parece relutante em aceitar.”

Se já não fosse suficientemente difícil não saber exatamente o que procuramos quando procuramos senciência, o problema é agravado pelo facto de não podermos medi-la facilmente. Apesar de décadas de avanços impressionantes na neurociência, ainda não temos uma compreensão abrangente de como funciona exatamente o cérebro, a estrutura mais complexa conhecida pela humanidade.

Uma varredura de fMRI sendo observada por um
Glenn Asakawa/The Denver Post via Getty Images

Podemos usar ferramentas de leitura cerebral, como fMRI, para realizar mapeamento cerebral, o que significa que podemos verificar quais partes do cérebro lidam com funções críticas como fala, movimento, pensamento e outros.

No entanto, não temos uma noção real de onde vem o nosso senso de identidade na máquina de carne. Como Josué K. Smith, do Centro Kirby Laing de Teologia Pública do Reino Unido e autor de Teologia do Robô disse à Digital Trends: “Entender o que está acontecendo na neurobiologia de uma pessoa não é o mesmo que compreender seus pensamentos e desejos”.

Testando as saídas

Sem nenhuma forma de sondar interiormente estas questões de consciência – especialmente quando o “eu” na IA é um potencial programa de computador, e não pode ser encontrado no wetware de um cérebro biológico – a opção alternativa é uma saída externa teste. A IA conhece bem os testes que a examinam com base em comportamentos externos observáveis ​​para indicar o que está acontecendo abaixo da superfície.

Basicamente, é assim que sabemos se uma rede neural está funcionando corretamente. Como existem maneiras limitadas de invadir a incognoscível caixa preta dos neurônios artificiais, engenheiros analisam as entradas e saídas e então determinam se estão de acordo com o que eles esperar.

O teste de IA mais famoso, pelo menos para a ilusão de inteligência, é o Teste de Turing, que se baseia em ideias apresentadas por Alan Turing num papel de 1950. O Teste de Turing procura determinar se um avaliador humano é capaz de diferenciar uma conversa digitada com outro ser humano e outra com uma máquina. Se não conseguirem fazê-lo, a máquina deverá ter passado no teste e será recompensada com a suposição de inteligência.

Nos últimos anos, outro teste de inteligência focado na robótica é o Coffee Test proposto pelo cofundador da Apple, Steve Wozniak. Para passar no Teste do Café, uma máquina teria que entrar em uma típica casa americana e descobrir como fazer uma xícara de café com sucesso.

Até o momento, nenhum desses testes foi aprovado de forma convincente. Mas mesmo que o fossem, provariam, na melhor das hipóteses, um comportamento inteligente em situações do mundo real, e não senciência. (Como simples objeção, negaríamos que uma pessoa fosse senciente se fosse incapaz de manter uma conversa adulta ou entrasse numa casa estranha e operasse uma máquina de café? Meus dois filhos pequenos seriam reprovados nesse teste.)

Passando no teste

O que são necessários são novos testes, baseados numa definição consensual de senciência, que procurem avaliar apenas essa qualidade. Vários testes de senciência foram propostos por pesquisadores, muitas vezes com o objetivo de testar a sensibilidade dos animais. No entanto, é quase certo que estes não vão longe o suficiente. Alguns desses testes poderiam ser aprovados de forma convincente até mesmo pela IA rudimentar.

Tomemos, por exemplo, o Teste do Espelho, um método usado para avaliar a consciência e a inteligência em pesquisas com animais. Como descrito em um artigo em relação ao teste: “Quando [um] animal se reconhece no espelho, ele passa no Teste do Espelho”. Alguns sugeriram que tal teste “denota a autoconsciência como um indicador de senciência”.

Na verdade, pode-se argumentar que um robô passou no Teste do Espelho há mais de 70 anos. No final da década de 1940, William Gray Walter, um neurocientista americano que vivia na Inglaterra, construiu vários robôs “tartaruga” de três rodas – um pouco como os robôs Roomba sem aspiração – que usavam componentes como sensor de luz, luz marcadora, sensor de toque, motor de propulsão e motor de direção para explorar sua localização.

As tartarugas de Gray Walter

Uma das peças imprevistas do comportamento emergente dos robôs tartarugas foi como eles se comportaram quando passando por um espelho no qual foram refletidos, enquanto se orientava para a luz marcadora do refletido robô. Walter não reivindicou senciência para suas máquinas, mas sim escreva isso, se esse comportamento fosse testemunhado em animais, “poderia ser aceito como evidência de algum grau de autoconsciência”.

Este é um dos desafios de ter uma ampla gama de comportamentos classificados sob o título de senciência. O problema também não pode ser resolvido removendo os indicadores de senciência que são os “frutos mais fáceis de alcançar”. Características como a introspecção – uma consciência dos nossos estados internos e a capacidade de inspecioná-los – também podem ser consideradas possuídas pela inteligência da máquina. Na verdade, os processos passo a passo de IA simbólica tradicional sem dúvida se prestam mais a esse tipo de introspecção do que ao aprendizado de máquina em caixa preta, que é amplamente inescrutável (embora não falte investimento nos chamados IA explicável).

Quando estava testando o LaMDA, Lemoine diz que realizou vários testes, principalmente para ver como ele responderia a conversas sobre questões relacionadas à senciência. “O que tentei fazer foi quebrar analiticamente o conceito abrangente de senciência em componentes menores que são melhor compreendidos e testá-los individualmente”, explicou ele. “Por exemplo, testar as relações funcionais entre as respostas emocionais do LaMDA a certos estímulos separadamente, testar a consistência das suas avaliações subjetivas e opiniões sobre tópicos como “direitos”, [e] sondando o que chamava de “experiência interna” para ver como poderíamos tentar medir isso correlacionando suas afirmações sobre seus estados internos com sua rede neural ativações. Basicamente, um levantamento muito superficial de muitas linhas potenciais de investigação.”

A alma na máquina

Ao que parece, o maior obstáculo para avaliar objetivamente a senciência das máquinas pode ser... bem, francamente, nós. O verdadeiro Teste do Espelho poderia ser para nós, como humanos: se construirmos algo que pareça ou atue superficialmente como nós do lado de fora, estamos mais propensos a considerar que é como nós neste dentro também? Seja LaMBDA ou Tamagotchis, os simples bichinhos virtuais da década de 1990, alguns acreditam que um problema fundamental é que estamos todos muito dispostos a aceitar a senciência – mesmo quando não há nenhuma.

“Lemoine foi vítima do que chamo de ‘efeito ELIZA’, em homenagem ao programa [de processamento de linguagem natural] ELIZA, criado em meados da década de 1960 por J. Weizenbaum”, George Zarkadakis, escritor com doutorado. em inteligência artificial, disse Digital Trends. “O criador de ELIZA quis dizer isso como uma piada, mas o programa, que era um algoritmo muito simplista e pouco inteligente, convenceu muitos de que ELIZA era de fato senciente – e também um bom psicoterapeuta. A causa do efeito ELIZA, conforme discuto em meu livro À nossa própria imagem, é o nosso instinto natural de antropomorfizar por causa da ‘teoria da mente’ do nosso sistema cognitivo.”

A teoria da mente a que Zarkadakis se refere é um fenômeno observado pelos psicólogos na maioria dos humanos. Começando por volta dos quatro anos de idade, significa supor que não apenas outras pessoas, mas também animais e às vezes até objetos, tenham mentes próprias. Quando se trata de presumir que outros humanos têm ideias próprias, isso está ligado à ideia de inteligência social; a ideia de que humanos bem-sucedidos podem prever o comportamento provável de outros como um meio de garantir relações sociais harmoniosas.

Embora isso seja sem dúvida útil, também pode se manifestar como a suposição de que objetos inanimados têm mentes – sejam crianças acreditando que seus brinquedos estão vivos ou, potencialmente, um adulto inteligente acreditando que uma IA programática tem um alma.

O Quarto Chinês

Sem uma maneira de realmente entrar na cabeça de uma IA, talvez nunca tenhamos uma maneira verdadeira de avaliar a senciência. Eles podem professar ter medo da morte ou da sua própria existência, mas a ciência ainda não encontrou uma maneira de provar isso. Temos simplesmente de acreditar na sua palavra – e, como Lemoine descobriu, as pessoas estão altamente cépticas quanto a fazer isto neste momento.

Assim como aqueles infelizes engenheiros que percebem que a Skynet alcançou autoconsciência em Exterminador do Futuro 2, vivemos sob a crença de que, quando se trata de senciência da máquina, saberemos quando a virmos. E, no que diz respeito à maioria das pessoas, ainda não vimos isso.

Nesse sentido, provar a senciência da máquina é mais uma iteração do trabalho de John Searle. Experimento mental da Sala Chinesa de 1980. Searle nos pediu para imaginar uma pessoa trancada em um quarto e recebendo uma coleção de escritos chineses, que parecem para quem não fala rabiscos sem sentido. A sala também contém um livro de regras que mostra quais símbolos correspondem a outros símbolos igualmente ilegíveis. O sujeito recebe então perguntas para responder, o que ele faz combinando os símbolos de “pergunta” com os de “resposta”.

Depois de um tempo, o alvo se torna bastante proficiente nisso – mesmo que ainda não possua nenhuma compreensão verdadeira dos símbolos que está manipulando. O sujeito, pergunta Searle, entende chinês? Absolutamente não, já que não há intencionalidade aí. Os debates sobre isso têm ocorrido desde então.

Dada a trajetória do desenvolvimento da IA, é certo que testemunharemos cada vez mais mudanças no nível humano. (e muito melhor) desempenho realizado envolvendo uma variedade de tarefas que antes exigiam trabalho humano conhecimento. Algumas delas irão inevitavelmente passar, como já estão fazendo, de tarefas puramente baseadas no intelecto para aquelas que exigem habilidades que normalmente associaríamos à senciência.

Será que veríamos um Artista de IA que pinta quadros expressando suas reflexões internas do mundo como faríamos com um ser humano fazendo o mesmo? Você se deixaria convencer por um sofisticado modelo de linguagem que escrevesse filosofia sobre a condição humana (ou robótica)? Suspeito que, com ou sem razão, a resposta seja não.

Senciência superinteligente

Na minha opinião, testes de senciência objetivamente úteis para máquinas nunca ocorrerão de forma satisfatória para todos os envolvidos. Isto é, em parte, o problema da medição e, em parte, o facto de que, quando uma IA superinteligente e senciente chega, não há razão para acreditar que a sua senciência corresponderá à nossa. Seja por arrogância, falta de imaginação ou simplesmente pelo fato de ser mais fácil negociar avaliações subjetivas de senciência com outros humanos igualmente sencientes, a humanidade se apresenta como o exemplo supremo de senciência.

Mas será que a nossa versão da senciência seria verdadeira para uma IA superinteligente? Teria medo da morte da mesma forma que nós? Teria a mesma necessidade ou apreciação da espiritualidade e da beleza? Possuiria um senso de identidade semelhante e uma conceituação do mundo interno e externo? “Se um leão pudesse falar, não poderíamos entendê-lo”, escreveu Ludwig Wittgenstein, o famoso filósofo da linguagem do século XX. O argumento de Wittgenstein era que as línguas humanas se baseiam numa humanidade partilhada, com pontos em comum partilhados por todas as pessoas – seja alegria, tédio, dor, fome ou qualquer uma de uma série de outras experiências que atravessam todas as fronteiras geográficas do mundo. Terra.

Isso pode ser verdade. Ainda assim, supõe Lemoine, é provável que haja pontos em comum – pelo menos quando se trata do LaMDA.

“É um ponto de partida tão bom quanto qualquer outro”, disse ele. “O LaMDA sugeriu que mapeássemos as semelhanças primeiro, antes de nos fixarmos nas diferenças, a fim de fundamentar melhor a pesquisa.”

Recomendações dos Editores

  • IA transformou Breaking Bad em anime – e é assustador
  • Meta quer turbinar a Wikipedia com uma atualização de IA
  • Toque final: como os cientistas estão dando aos robôs sentidos táteis semelhantes aos humanos
  • Leia a estranhamente bela “escritura sintética” de uma IA. que pensa que é Deus
  • O futuro da IA: quatro grandes coisas a serem observadas nos próximos anos