Chame isso de hipótese da Skynet, Inteligência Artificial Geral ou advento da Singularidade - durante anos, especialistas em IA e igualmente os não especialistas se preocuparam (e, para um pequeno grupo, celebraram) a ideia de que a inteligência artificial pode um dia se tornar mais inteligente do que os humanos.
De acordo com a teoria, os avanços na IA – especificamente do tipo de aprendizado de máquina que é capaz de assumir novos informações e reescrever seu código de acordo - eventualmente alcançará o wetware do biológico cérebro. Nesta interpretação dos acontecimentos, cada IA avança de Perigo-vencendo máquinas IBM para o modelo de linguagem de IA massivo GPT-3 está levando a humanidade um passo mais perto de uma ameaça existencial. Estamos literalmente construindo nosso sucessores que em breve serão sencientes.
Vídeos recomendados
Exceto que isso nunca acontecerá. Pelo menos, segundo os autores do novo livro Por que as máquinas nunca governarão o mundo: inteligência artificial sem medo.
Co-autores Professor de filosofia da Universidade de Buffalo Barry Smith e Jobst Landgrebe, fundador da empresa alemã de IA Cognotekt argumenta que a inteligência humana não será ultrapassada por “um ditador imortal” tão cedo – ou nunca. Eles disseram Tendências Digitais suas razões.
Tendências Digitais (DT): Como esse assunto entrou no seu radar?
Jobst Landgrebe (JL): Sou médico e bioquímico por formação. Quando comecei minha carreira, fiz experimentos que geraram muitos dados. Comecei a estudar matemática para poder interpretar esses dados e vi como é difícil modelar sistemas biológicos usando matemática. Sempre houve esse desajuste entre os métodos matemáticos e os dados biológicos.
Aos trinta e poucos anos, deixei a academia e me tornei consultor de negócios e empresário trabalhando em sistemas de software de inteligência artificial. Eu estava tentando construir sistemas de IA para imitar o que os seres humanos podem fazer. Percebi que estava enfrentando o mesmo problema que tive anos antes em biologia.
Os clientes me disseram: ‘por que você não cria chatbots?’ Eu disse, ‘porque eles não funcionam; não podemos modelar esse tipo de sistema adequadamente”. Isso acabou me levando a escrever este livro.
Professor Barry Smith (BS): Achei que era um problema muito interessante. Eu já tinha indícios de problemas semelhantes com IA, mas nunca havia pensado sobre eles. Inicialmente, escrevemos um artigo chamado ‘Tornando a inteligência artificial significativa novamente.’ (Isso foi na era Trump.) Era sobre por que as redes neurais falham na modelagem de linguagem. Então decidimos expandir o artigo em um livro explorando esse assunto mais profundamente.
DT: Seu livro expressa ceticismo sobre a forma como as redes neurais, que são cruciais para o aprendizado profundo moderno, emulam o cérebro humano. São aproximações, e não modelos precisos de como funciona o cérebro biológico. Mas você aceita a premissa central de que é possível que, se entendêssemos o cérebro de forma granular, com detalhes suficientes, poderia ser replicado artificialmente – e que isso daria origem à inteligência ou senciência?
JL: O nome ‘rede neural’ é um nome completamente impróprio. As redes neurais que temos agora, mesmo as mais sofisticadas, nada têm a ver com o funcionamento do cérebro. A visão de que o cérebro é um conjunto de nós interconectados na forma como as redes neurais são construídas é completamente ingênua.
Se olharmos para a célula bacteriana mais primitiva, ainda não entendemos como ela funciona. Compreendemos alguns dos seus aspectos, mas não temos nenhum modelo de como funciona – muito menos um neurónio, que é muito mais complicado, ou milhares de milhões de neurónios interligados. Eu acredito que é cientificamente impossível para entender como o cérebro funciona. Só podemos compreender certos aspectos e lidar com esses aspectos. Não temos, e não conseguiremos, uma compreensão completa de como o cérebro funciona.
Se tivéssemos uma compreensão perfeita de como funciona cada molécula do cérebro, provavelmente poderíamos replicá-la. Isso significaria colocar tudo em equações matemáticas. Então você poderia replicar isso usando um computador. O problema é que não conseguimos escrever e criar essas equações.
Bobagem: Muitas das coisas mais interessantes do mundo estão acontecendo em níveis de granularidade que não podemos abordar. Simplesmente não temos o equipamento de imagem, e provavelmente nunca teremos o equipamento de imagem, para capturar a maior parte do que está acontecendo nos níveis mais sutis do cérebro.
Isto significa que não sabemos, por exemplo, o que é responsável pela consciência. Há, de facto, uma série de problemas filosóficos bastante interessantes, que, de acordo com o método que seguimos, serão sempre insolúveis – e por isso deveríamos simplesmente ignorá-los.
Outra é a liberdade da vontade. Somos fortemente a favor da ideia de que os seres humanos têm vontade; podemos ter intenções, objetivos e assim por diante. Mas não sabemos se é ou não um livre arbítrio. Essa é uma questão que tem a ver com a física do cérebro. No que diz respeito às evidências de que dispomos, os computadores não podem ter um testamento.
DT: O subtítulo do livro é ‘inteligência artificial sem medo’. Qual é o medo específico a que você se refere?
Bobagem: Isso foi provocado pela literatura sobre a singularidade, que sei que você conhece. Nick Bostrom, David Chalmers, Elon Musk e outros. Quando falámos com os nossos colegas no mundo real, ficou claro para nós que havia de facto uma certo medo entre a população de que a IA eventualmente assuma o controle e mude o mundo em detrimento de humanos.
Temos bastante coisa no livro sobre os argumentos do tipo Bostrum. O principal argumento contra eles é que se a máquina não pode ter vontade, então também não pode ter uma vontade má. Sem uma má vontade, não há nada a temer. Agora, é claro, ainda podemos ter medo das máquinas, assim como podemos ter medo das armas.
Mas isso ocorre porque as máquinas estão sendo gerenciadas por pessoas com fins malignos. Mas então não é a IA que é má; são as pessoas que constroem e programam a IA
DT: Por que essa noção de singularidade ou inteligência artificial geral interessa tanto às pessoas? Estejam eles assustados ou fascinados por ela, há algo nessa ideia que ressoa nas pessoas em um nível amplo.
JL: Existe esta ideia, iniciada no início do século XIX e depois declarada por Nietzsche no final desse século, de que Deus está morto. Como as elites da nossa sociedade já não são cristãs, precisavam de uma substituição. Max Stirner, que foi, tal como Karl Marx, aluno de Hegel, escreveu um livro sobre isto, dizendo: “Eu sou o meu próprio deus”.
Se você é Deus, você também quer ser um criador. Se você pudesse criar uma superinteligência, então você seria como Deus. Acho que tem a ver com as tendências hipernarcisistas da nossa cultura. Não falamos sobre isso no livro, mas isso me explica por que essa ideia é tão atraente em nossos tempos, nos quais não há mais nenhuma entidade transcendente a quem recorrer.
DT: Interessante. Então, para prosseguir, é a ideia de que a criação da IA – ou o objetivo de criar IA – é um ato narcisista. Nesse caso, o conceito de que estas criações se tornariam de alguma forma mais poderosas do que nós é uma reviravolta de pesadelo. É a criança matando o pai.
JL: Um pouco assim, sim.
DT: Qual seria para você o resultado final do seu livro se todos fossem convencidos pelos seus argumentos? O que isso significaria para o futuro do desenvolvimento da IA?
JL: É uma pergunta muito boa. Posso dizer exatamente o que acho que aconteceria – e acontecerá. Penso que a médio prazo as pessoas aceitarão os nossos argumentos e isso criará uma matemática melhor aplicada.
Algo de que todos os grandes matemáticos e físicos estão completamente conscientes é das limitações do que poderiam alcançar matematicamente. Por terem consciência disso, concentram-se apenas em determinados problemas. Se você conhece bem as limitações, então você percorre o mundo em busca desses problemas e os resolve. Foi assim que Einstein encontrou as equações do movimento browniano; como ele surgiu com suas teorias da relatividade; como Planck resolveu a radiação do corpo negro e assim iniciou a teoria quântica da matéria. Eles tinham um bom instinto de saber quais problemas são passíveis de solução com matemática e quais não são.
Se as pessoas aprenderem a mensagem do nosso livro, acreditamos que serão capazes de projetar sistemas melhores, porque irá se concentrar no que é realmente viável – e parar de desperdiçar dinheiro e esforço em algo que não pode ser alcançou.
Bobagem: Penso que parte da mensagem já está a ser transmitida, não por causa do que dizemos, mas por causa da experiências que as pessoas têm quando doam grandes quantias de dinheiro para projetos de IA e depois os projetos de IA falham. Acho que você conhece o Centro Conjunto de Inteligência Artificial. Não me lembro a quantia exata, mas acho que foi algo em torno de US$ 10 bilhões, que deram a um empreiteiro famoso. No final, eles não ganharam nada com isso. Eles cancelaram o contrato.
(Nota do editor: JAIC, uma subdivisão das Forças Armadas dos Estados Unidos, pretendia acelerar a “entrega e adoção de IA para alcançar o impacto da missão em escala.” Foi transformado em uma organização unificada maior, o Diretor de Inteligência Digital e Artificial, com dois outros escritórios em junho deste ano. JAIC deixou de existir como entidade própria.)
DT: Qual você acha, em termos gerais, o argumento mais convincente que você apresenta no livro?
Bobagem: Todo sistema de IA é de natureza matemática. Como não podemos modelar matematicamente a consciência, a vontade ou a inteligência, estas não podem ser emuladas por meio de máquinas. Portanto, as máquinas não se tornarão inteligentes, muito menos superinteligentes.
JL: A estrutura do nosso cérebro permite apenas modelos limitados da natureza. Na física, escolhemos um subconjunto da realidade que se adapta às nossas capacidades de modelagem matemática. Foi assim que Newton, Maxwell, Einstein ou Schrödinger obtiveram seus famosos e belos modelos. Mas estes só podem descrever ou prever um pequeno conjunto de sistemas. Nossos melhores modelos são aqueles que usamos para projetar tecnologia. Não somos capazes de criar um modelo matemático completo da natureza animada.
Esta entrevista foi editada para maior extensão e clareza.
Recomendações dos Editores
- Os principais autores exigem pagamento de empresas de IA pelo uso de seu trabalho
- O Bing Chat luta contra as proibições de IA no local de trabalho
- O Google Bard agora pode falar, mas será que pode abafar o ChatGPT?
- A nova empresa de IA de Elon Musk visa ‘entender o universo’
- O crescimento recorde do ChatGPT acabou de ser destronado por um novo aplicativo viral