Llámelo la hipótesis de Skynet, la Inteligencia Artificial General o el advenimiento de la Singularidad: durante años, los expertos en IA y Incluso los no expertos se han preocupado (y, en el caso de un pequeño grupo, han celebrado) la idea de que la inteligencia artificial algún día pueda volverse más inteligente. que los humanos.
Según la teoría, los avances en IA, específicamente del tipo de aprendizaje automático que es capaz de asumir nuevas información y reescribir su código en consecuencia, eventualmente se pondrá al día con el software húmedo del sistema biológico. cerebro. En esta interpretación de los acontecimientos, cada avance de la IA desde Peligromáquinas IBM ganadoras al modelo de lenguaje de IA masivo GPT-3 está acercando a la humanidad un paso más a una amenaza existencial. Literalmente estamos construyendo nuestro sucesores que pronto serán conscientes.
Vídeos recomendados
Excepto que nunca sucederá. Al menos, según los autores del nuevo libro. Por qué las máquinas nunca gobernarán el mundo: inteligencia artificial sin miedo.
Coautores Profesor de filosofía de la Universidad de Buffalo Barry Smith y Jobst Landgrebe, fundador de la empresa alemana de inteligencia artificial Cognotekt, sostienen que la inteligencia humana no será superada por “un dictador inmortal” en el corto plazo, ni nunca. Ellos dijeron Tendencias digitales sus razones.
Digital Trends (DT): ¿Cómo llegó este tema a su radar?
Jobst Landgrebe (JL): Soy médico y bioquímico de formación. Cuando comencé mi carrera, hice experimentos que generaron muchos datos. Empecé a estudiar matemáticas para poder interpretar estos datos y vi lo difícil que es modelar sistemas biológicos utilizando las matemáticas. Siempre existió este desajuste entre los métodos matemáticos y los datos biológicos.
Cuando tenía treinta y tantos, dejé la academia y me convertí en consultor de negocios y emprendedor que trabajaba en sistemas de software de inteligencia artificial. Estaba intentando construir sistemas de inteligencia artificial para imitar lo que los seres humanos pueden hacer. Me di cuenta de que me estaba encontrando con el mismo problema que tuve años antes en biología.
Los clientes me dijeron: '¿por qué no creas chatbots?' no podemos modelar este tipo de sistema adecuadamente”. Eso finalmente me llevó a escribir este libro.
Profesor Barry Smith (BS): Pensé que era un problema muy interesante. Ya tenía indicios de problemas similares con la IA, pero nunca los había pensado detenidamente. Inicialmente, escribimos un artículo llamado "Hacer que la inteligencia artificial vuelva a tener sentido.’ (Esto fue en la era Trump). Se trataba de por qué las redes neuronales fallan en el modelado del lenguaje. Luego decidimos ampliar el artículo hasta convertirlo en un libro que explorara este tema más profundamente.
DT: Su libro expresa escepticismo sobre la forma en que las redes neuronales, que son cruciales para el aprendizaje profundo moderno, emulan el cerebro humano. Son aproximaciones, más que modelos precisos, de cómo funciona el cerebro biológico. ¿Pero acepta la premisa central de que es posible que, si entendiéramos el cerebro en forma granular? suficiente detalle, podría replicarse artificialmente, y que esto daría lugar a inteligencia o ¿sentencia?
JL: El nombre "red neuronal" es completamente inapropiado. Las redes neuronales que tenemos ahora, incluso las más sofisticadas, no tienen nada que ver con el funcionamiento del cerebro. La visión de que el cerebro es un conjunto de nodos interconectados en la forma en que se construyen las redes neuronales es completamente ingenua.
Si nos fijamos en la célula bacteriana más primitiva, todavía no entendemos ni siquiera cómo funciona. Entendemos algunos de sus aspectos, pero no tenemos un modelo de cómo funciona, y mucho menos una neurona, que es mucho más complicada, o miles de millones de neuronas interconectadas. Creo que es científicamente imposible para entender cómo funciona el cerebro. Sólo podemos comprender ciertos aspectos y tratar con estos aspectos. No tenemos ni obtendremos una comprensión completa de cómo funciona el cerebro.
Si tuviéramos una comprensión perfecta de cómo funciona cada molécula del cerebro, probablemente podríamos replicarla. Eso significaría poner todo en ecuaciones matemáticas. Entonces podrías replicar esto usando una computadora. El problema es simplemente que no podemos escribir y crear esas ecuaciones.
Licenciatura: Muchas de las cosas más interesantes del mundo están sucediendo en niveles de granularidad a los que no podemos acercarnos. Simplemente no tenemos el equipo de imágenes, y probablemente nunca lo tendremos, para capturar la mayor parte de lo que sucede en los niveles más finos del cerebro.
Esto significa que no sabemos, por ejemplo, qué es responsable de la conciencia. De hecho, hay una serie de problemas filosóficos bastante interesantes que, según el método que estamos siguiendo, siempre serán irresolubles, por lo que deberíamos simplemente ignorarlos.
Otra es la libertad de la voluntad. Estamos muy a favor de la idea de que los seres humanos tienen voluntad; podemos tener intenciones, metas, etc. Pero no sabemos si es libre albedrío o no. Ésa es una cuestión que tiene que ver con la física del cerebro. En lo que respecta a la evidencia de que disponemos, las computadoras no pueden tener testamento.
DT: El subtítulo del libro es “inteligencia artificial sin miedo”. ¿Cuál es el miedo específico al que te refieres?
Licenciatura: Eso fue provocado por la literatura sobre la singularidad, que sé que ustedes conocen. Nick Bostrom, David Chalmers, Elon Musk y similares. Cuando hablamos con nuestros colegas en el mundo real, nos quedó claro que efectivamente había una cierto temor entre la población de que la IA eventualmente se apodere y cambie el mundo en detrimento de humanos.
En el libro tenemos mucho sobre argumentos del tipo Bostrum. El argumento central en su contra es que si la máquina no puede tener voluntad, tampoco puede tener una voluntad maligna. Sin una mala voluntad, no hay nada que temer. Ahora, por supuesto, todavía podemos tener miedo de las máquinas, del mismo modo que podemos tener miedo de las armas.
Pero eso se debe a que las máquinas están siendo manejadas por personas con fines malvados. Pero entonces no es la IA la que es mala; son las personas las que construyen y programan la IA
DT: ¿Por qué interesa tanto a la gente esta noción de singularidad o inteligencia artificial general? Ya sea que les asuste o les fascine, hay algo en esta idea que resuena en la gente en un nivel amplio.
JL: Existe esta idea, iniciada a principios del siglo XIX y luego declarada por Nietzsche a finales de ese siglo, de que Dios está muerto. Como las élites de nuestra sociedad ya no son cristianas, necesitaban un reemplazo. Max Stirner, que fue, como Karl Marx, alumno de Hegel, escribió un libro sobre esto diciendo: "Soy mi propio dios".
Si eres Dios, también quieres ser creador. Si pudieras crear una superinteligencia entonces serías como Dios. Creo que tiene que ver con las tendencias hipernarcisistas de nuestra cultura. No hablamos de esto en el libro, pero eso me explica por qué esta idea es tan atractiva en nuestros tiempos en los que ya no existe una entidad trascendente a la que recurrir.
DT: Interesante. Entonces, para seguir adelante, está la idea de que la creación de IA (o el objetivo de crear IA) es un acto narcisista. En ese caso, el concepto de que estas creaciones de alguna manera se volverían más poderosas que nosotros es un giro de pesadilla. Es el niño matando al padre.
JL: Un poco así, sí.
DT: ¿Cuál sería para usted el resultado final de su libro si todos estuvieran convencidos de sus argumentos? ¿Qué significaría eso para el futuro del desarrollo de la IA?
JL: Es una muy buena pregunta. Puedo decirles exactamente lo que creo que sucedería y sucederá. Creo que a mediano plazo la gente aceptará nuestros argumentos y esto creará matemáticas mejor aplicadas.
Algo de lo que todos los grandes matemáticos y físicos son plenamente conscientes es de las limitaciones de lo que podían lograr matemáticamente. Como son conscientes de esto, se centran sólo en ciertos problemas. Si eres muy consciente de las limitaciones, entonces recorrerás el mundo, buscarás esos problemas y los resolverás. Así fue como Einstein encontró las ecuaciones del movimiento browniano; cómo se le ocurrieron sus teorías de la relatividad; cómo Planck resolvió la radiación del cuerpo negro y así inició la teoría cuántica de la materia. Tenían un buen instinto para saber qué problemas se pueden resolver con matemáticas y cuáles no.
Si las personas aprenden el mensaje de nuestro libro, creemos que podrán diseñar mejores sistemas, porque Nos concentraremos en lo que es realmente factible y dejaremos de gastar dinero y esfuerzo en algo que no puede ser. logrado.
Licenciatura: Creo que parte del mensaje ya está llegando, no por lo que decimos sino por la Las experiencias que tiene la gente cuando donan grandes cantidades de dinero a proyectos de IA y luego los proyectos de IA fracasan. Supongo que conoces el Centro Conjunto de Inteligencia Artificial. No recuerdo la suma exacta, pero creo que fueron unos 10 mil millones de dólares, que le dieron a un contratista famoso. Al final no obtuvieron nada. Cancelaron el contrato.
(Nota del editor: JAIC, una subdivisión de las Fuerzas Armadas de los Estados Unidos, tenía como objetivo acelerar la “entrega y adopción de IA para lograr el impacto de la misión”. a escala." En junio de este año se integró en una organización unificada más grande, el Director de Inteligencia Artificial y Digital, con otras dos oficinas. JAIC dejó de existir como entidad propia).
DT: ¿Cuál crees que es, en términos generales, el argumento más convincente que presentas en el libro?
Licenciatura: Todo sistema de IA es de naturaleza matemática. Como no podemos modelar matemáticamente la conciencia, la voluntad o la inteligencia, éstas no pueden emularse utilizando máquinas. Por tanto, las máquinas no se volverán inteligentes, y mucho menos superinteligentes.
JL: La estructura de nuestro cerebro sólo permite modelos limitados de la naturaleza. En física, elegimos un subconjunto de la realidad que se ajusta a nuestras capacidades de modelado matemático. Así obtuvieron Newton, Maxwell, Einstein o Schrödinger sus famosos y bellos modelos. Pero éstos sólo pueden describir o predecir un pequeño conjunto de sistemas. Nuestros mejores modelos son aquellos que utilizamos para diseñar tecnología. No podemos crear un modelo matemático completo de la naturaleza animada.
Esta entrevista ha sido editada para mayor extensión y claridad.
Recomendaciones de los editores
- Los principales autores exigen un pago a las empresas de inteligencia artificial por utilizar su trabajo
- Bing Chat lucha contra las prohibiciones de IA en el lugar de trabajo
- Google Bard ahora puede hablar, pero ¿puede ahogar a ChatGPT?
- La nueva empresa de inteligencia artificial de Elon Musk tiene como objetivo "comprender el universo"
- El crecimiento récord de ChatGPT acaba de ser destronado por una nueva aplicación viral