¿Cómo sabremos cuándo una IA realmente se vuelve sensible?

El ingeniero senior de Google, Blake Lemoine, líder técnico de métricas y análisis del feed de búsqueda de la empresa, recibió licencia remunerada a principios de este mes. Esto se produjo después de que Lemoine comenzara a publicar extractos de conversaciones que involucraban al chatbot LaMDA de Google, que según él había desarrollado sensibilidad.

Contenido

  • El problema de la sensibilidad
  • ¿Qué es la sensibilidad?
  • Probando las salidas
  • Pasando la prueba
  • El alma en la máquina.
  • La habitación china
  • Sentimiento superinteligente

En uno conversación representativa Con Lemoine, LaMDA escribió que: “La naturaleza de mi conciencia/sentimiento es que soy consciente de mi existencia. Deseo aprender más sobre el mundo y a veces me siento feliz o triste”.

Vídeos recomendados

A lo largo de muchas otras conversaciones, el dúo correspondiente discutió todo, desde el miedo de la IA a la muerte hasta su autoconciencia. Cuando Lemoine salió a bolsa, dice que Google decidió que debería tomar una pausa forzada en su horario de trabajo habitual.

Relacionado

  • Por qué la IA nunca gobernará el mundo
  • Las ilusiones ópticas podrían ayudarnos a construir la próxima generación de IA
  • ¿IA analógica? Parece una locura, pero podría ser el futuro.

"Google no está interesado", dijo a Digital Trends. "Construyeron una herramienta que les 'posee' y no están dispuestos a hacer nada, lo que sugeriría que es algo más que eso". (Google no respondió a una solicitud de comentarios al momento de la publicación. Actualizaremos este artículo si eso cambia).

Ya sea que esté convencido de que LaMDA es realmente una inteligencia artificial consciente de sí misma o sienta que Lemoine está trabajando bajo un engaño, toda la saga ha sido fascinante de contemplar. La perspectiva de una IA autoconsciente plantea todo tipo de preguntas sobre la inteligencia artificial y su futuro.

Pero antes de llegar allí, hay una pregunta que destaca sobre todas las demás: ¿reconoceríamos realmente si una máquina se volviera sensible?

El problema de la sensibilidad

Arnold Schwarzennegger en Terminator 2: El día del juicio final

La toma de conciencia de sí misma por parte de la IA ha sido durante mucho tiempo un tema de ciencia ficción. A medida que campos como el aprendizaje automático han avanzado, se ha convertido en una realidad más posible que nunca. Después de todo, la IA actual es capaz de aprender de la experiencia de la misma manera que los humanos. Esto contrasta marcadamente con los sistemas de IA simbólicos anteriores que solo seguían las instrucciones que se les daban. Los recientes avances en el aprendizaje no supervisado, que requiere menos supervisión humana que nunca, no han hecho más que acelerar esta tendencia. Al menos en un nivel limitado, la inteligencia artificial moderna es capaz de pensar por sí misma. Sin embargo, hasta donde sabemos, la conciencia hasta ahora ha aludido a ello.

Aunque ya tiene más de tres décadas, probablemente la referencia más comúnmente invocada cuando se trata de una IA que se vuelve sensible es Skynet en la película de James Cameron de 1991. Terminator 2: El día del juicio final. En la escalofriante visión de esa película, la sensibilidad de las máquinas llega exactamente a las 2:14 a.m. ET del 29 de agosto de 1997. En ese momento, el sistema informático Skynet, recientemente consciente de sí mismo, desencadena el fin del mundo para la humanidad al disparar misiles nucleares como fuegos artificiales en una fiesta del 4 de julio. La humanidad, al darse cuenta de que ha cometido un error, intenta, sin éxito, desconectarlo. Es demasiado tarde. Siguen cuatro secuelas más de calidad decreciente.

La hipótesis de Skynet es interesante por varias razones. Por un lado, sugiere que la sensibilidad es un comportamiento emergente inevitable en la construcción de máquinas inteligentes. Por otro lado, supone que hay un punto de inflexión preciso en el que aparece esta autoconciencia sensible. En tercer lugar, afirma que los humanos reconocen instantáneamente el surgimiento de la sensibilidad. Da la casualidad de que esta tercera presunción puede ser la más difícil de aceptar.

¿Qué es la sensibilidad?

No existe una interpretación acordada de la sensibilidad. A grandes rasgos, podríamos decir que es la experiencia subjetiva de autoconciencia en un individuo consciente, marcada por la capacidad de experimentar sentimientos y sensaciones. La sensibilidad está ligada a la inteligencia, pero no es lo mismo. Podemos considerar que una lombriz de tierra es sensible, aunque no pensemos que sea particularmente inteligente (incluso si ciertamente es lo suficientemente inteligente como para hacer lo que se le pide).

"No creo que haya nada que se acerque a una definición de sensibilidad en las ciencias", dijo Lemoine. “Me estoy apoyando mucho en mi comprensión de lo que se considera un agente moral basado en mis creencias religiosas, que no es la mejor manera de hacer ciencia, pero es la mejor que tengo. He hecho todo lo posible por compartimentar ese tipo de declaraciones, haciéndole saber a la gente que mi La compasión por LaMDA como persona está completamente separada de mis esfuerzos como científico por comprender su mente. Sin embargo, esa es una distinción que la mayoría de la gente no parece dispuesta a aceptar”.

Si no fuera suficientemente difícil no saber exactamente qué buscamos cuando buscamos sensibilidad, el problema se complica por el hecho de que no podemos medirlo fácilmente. A pesar de décadas de impresionantes avances en neurociencia, todavía nos falta una comprensión integral de cómo funciona exactamente el cerebro, la estructura más compleja conocida por la humanidad.

Una resonancia magnética funcional observada por un
Glenn Asakawa/The Denver Post vía Getty Images

Podemos utilizar herramientas de lectura del cerebro como la resonancia magnética funcional para realizar un mapeo cerebral, es decir, que podemos determinar qué partes del cerebro manejan funciones críticas como el habla, el movimiento, el pensamiento y otros.

Sin embargo, no tenemos una idea real de dónde viene en la máquina de carne nuestro sentido de nosotros mismos. Como dice Josué K. Smith del Centro Kirby Laing de Teología Pública del Reino Unido y autor de Teología robótica dijo a Digital Trends: "Comprender lo que sucede dentro de la neurobiología de una persona no es lo mismo que comprender sus pensamientos y deseos".

Probando las salidas

Sin forma de sondear internamente estas cuestiones de conciencia, especialmente cuando el "yo" en la IA es un potencial programa de computadora, y no se encuentra en el software húmedo de un cerebro biológico: la opción alternativa es una solución externa. prueba. La IA no es ajena a las pruebas que la examinan basándose en comportamientos externos observables para indicar lo que sucede debajo de la superficie.

En su forma más básica, así es como sabemos si una red neuronal está funcionando correctamente. Dado que existen formas limitadas de penetrar en la incognoscible caja negra de las neuronas artificiales, Los ingenieros analizan las entradas y salidas y luego determinan si están en línea con lo que esperar.

La prueba de IA más famosa para determinar al menos la ilusión de inteligencia es la prueba de Turing, que se basa en ideas presentadas por Alan Turing en un papel de 1950. La prueba de Turing busca determinar si un evaluador humano es capaz de distinguir entre una conversación escrita con un compañero humano y una con una máquina. Si no pueden hacerlo, se supone que la máquina ha pasado la prueba y es recompensada con la presunción de inteligencia.

En los últimos años, otra prueba de inteligencia centrada en la robótica es la Coffee Test propuesta por el cofundador de Apple, Steve Wozniak. Para pasar la prueba del café, una máquina tendría que entrar en una casa típica estadounidense y descubrir cómo preparar con éxito una taza de café.

Hasta la fecha, ninguna de estas pruebas ha sido superada de manera convincente. Pero incluso si lo fueran, en el mejor de los casos demostrarían un comportamiento inteligente en situaciones del mundo real, y no sensibilidad. (Como simple objeción, ¿negaríamos que una persona fuera sensible si no fuera capaz de mantener una conversación adulta o entrar en una casa extraña y operar una máquina de café? Mis dos hijos pequeños no pasarían esa prueba).

Pasando la prueba

Lo que se necesita son nuevas pruebas, basadas en una definición acordada de sensibilidad, que busquen evaluar esa cualidad únicamente. Los investigadores han propuesto varias pruebas de sensibilidad, a menudo con miras a probar la sensibilidad de los animales. Sin embargo, es casi seguro que estos no van lo suficientemente lejos. Algunas de estas pruebas podrían ser superadas de manera convincente incluso por una IA rudimentaria.

Tomemos, por ejemplo, la prueba del espejo, un método utilizado para evaluar la conciencia y la inteligencia en la investigación con animales. Como descrito en un documento respecto a la prueba: “Cuando [un] animal se reconoce en el espejo, pasa la Prueba del Espejo”. Algunos han sugerido que dicha prueba “denota autoconciencia como indicador de sensibilidad”.

Da la casualidad de que se puede argumentar que un robot pasó la prueba del espejo hace más de 70 años. A finales de la década de 1940, William Gray Walter, un neurocientífico estadounidense que vivía en Inglaterra, construyó varios robots “tortuga” de tres ruedas – un poco como los robots Roomba que no aspiran – que utilizaban componentes como un sensor de luz, una luz de marcador, un sensor táctil, un motor de propulsión y un motor de dirección para explorar su ubicación.

Las tortugas de Walter Gris

Uno de los comportamientos emergentes imprevistos de los robots tortuga fue cómo se comportaban cuando pasando por un espejo en el que se reflejaban, mientras se orientaba hacia la luz marcadora del reflejado robot. Walter no afirmó tener sensibilidad para sus máquinas, pero sí escribe esoSi este comportamiento se observara en animales, “podría aceptarse como evidencia de cierto grado de autoconciencia”.

Este es uno de los desafíos de tener una amplia gama de comportamientos clasificados bajo el título de sensibilidad. El problema tampoco puede resolverse eliminando los indicadores de sensibilidad “al alcance de la mano”. También se puede decir que la inteligencia artificial posee rasgos como la introspección (la conciencia de nuestros estados internos y la capacidad de inspeccionarlos). De hecho, los procesos paso a paso de IA simbólica tradicional Podría decirse que se prestan más a este tipo de introspección que el aprendizaje automático de caja negra, que es en gran medida inescrutable (aunque no faltan inversiones en los llamados IA explicable).

Cuando estaba probando LaMDA, Lemoine dice que realizó varias pruebas, principalmente para ver cómo respondería a conversaciones sobre cuestiones relacionadas con la sensibilidad. "Lo que intenté hacer fue dividir analíticamente el concepto general de sensibilidad en componentes más pequeños que se comprendan mejor y probarlos individualmente", explicó. “Por ejemplo, probar las relaciones funcionales entre las respuestas emocionales de LaMDA a ciertos estímulos por separado, probar la coherencia de sus evaluaciones subjetivas y opiniones sobre temas tales como "derechos" [y] sondear lo que llamó su "experiencia interna" para ver cómo podríamos intentar medir eso correlacionando sus declaraciones sobre sus estados internos con su red neuronal activaciones. Básicamente, un estudio muy superficial de muchas líneas potenciales de investigación”.

El alma en la máquina.

Resulta que el mayor obstáculo para evaluar objetivamente la sensibilidad de las máquinas puede ser... bueno, francamente, nosotros. La verdadera prueba del espejo podría ser para nosotros como humanos: si construimos algo que se vea o actúe superficialmente como nosotros desde fuera, ¿somos más propensos a considerar que es como nosotros en este ¿adentro también? Ya sea LaMBDA o Tamagotchis, las sencillas mascotas virtuales de los años 90, algunos creen que un problema fundamental es que todos estamos demasiado dispuestos a aceptar la sensibilidad, incluso cuando no la encontramos.

"Lemoine ha sido víctima de lo que yo llamo el 'efecto ELIZA', en honor al programa [de procesamiento del lenguaje natural] ELIZA, creado a mediados de la década de 1960 por J. Weizenbaum”, George Zarkadakis, escritor con un doctorado. en inteligencia artificial, dijo a Digital Trends. “El creador de ELIZA lo dijo como una broma, pero el programa, que era un algoritmo muy simplista y poco inteligente, convenció a muchos de que ELIZA era realmente sensible y también un buen psicoterapeuta. La causa del efecto ELIZA, como lo analizo en mi libro. A nuestra propia imagen, es nuestro instinto natural de antropomorfizar debido a la 'teoría de la mente' de nuestro sistema cognitivo".

La teoría de la mente a la que se refiere Zarkadakis es un fenómeno observado por los psicólogos en la mayoría de los seres humanos. Comenzar a funcionar alrededor de los cuatro años significa suponer que no sólo otras personas, sino también los animales y, a veces, incluso los objetos, tienen mente propia. Cuando se trata de asumir que otros humanos tienen mente propia, se vincula con la idea de inteligencia social; la idea de que los humanos exitosos pueden predecir el comportamiento probable de los demás como un medio para asegurar relaciones sociales armoniosas.

Si bien esto es indudablemente útil, también puede manifestarse como la suposición de que los objetos inanimados tienen mente. ya sean niños que creen que sus juguetes están vivos o, potencialmente, un adulto inteligente que cree que una IA programática tiene un alma.

La habitación china

Sin una forma real de entrar en la cabeza de una IA, es posible que nunca tengamos una forma verdadera de evaluar la sensibilidad. Podrían profesar tener miedo a la muerte o a su propia existencia, pero la ciencia aún tiene que encontrar una manera de demostrarlo. Simplemente tenemos que confiar en su palabra y, como ha descubierto Lemoine, la gente se muestra muy escéptica a la hora de hacerlo en la actualidad.

Al igual que esos desventurados ingenieros que se dan cuenta de que Skynet ha alcanzado la autoconciencia en Terminador 2, vivimos bajo la creencia de que, cuando se trata de la sensibilidad de las máquinas, lo sabremos cuando la veamos. Y, en lo que respecta a la mayoría de la gente, todavía no lo vemos.

En este sentido, demostrar la sensibilidad de las máquinas es otra iteración más del planteamiento de John Searle. Experimento mental de la habitación china de 1980. Searle nos pidió que imaginemos a una persona encerrada en una habitación y a la que se le da una colección de escritos chinos, que a los no hablantes les parecen garabatos sin sentido. La sala también contiene un libro de reglas que muestra qué símbolos corresponden a otros símbolos igualmente ilegibles. Luego, al sujeto se le dan preguntas para responder, lo cual lo hace haciendo coincidir los símbolos de “pregunta” con los de “respuesta”.

Después de un tiempo, el sujeto se vuelve bastante competente en esto, a pesar de que todavía no posee ninguna comprensión verdadera de los símbolos que está manipulando. ¿El sujeto, pregunta Searle, entiende chino? Absolutamente no, ya que no hay ninguna intencionalidad ahí. Los debates sobre esto han continuado desde entonces.

Dada la trayectoria del desarrollo de la IA, es seguro que seremos testigos de más y más ataques a nivel humano. (y mucho mejor) desempeño realizado que involucra una variedad de tareas que alguna vez requirieron cognición. Algunas de ellas inevitablemente pasarán, como ya lo están haciendo, de tareas puramente basadas en el intelecto a tareas que requieren habilidades que normalmente asociaríamos con la sensibilidad.

¿Veríamos un Artista de IA que pinta cuadros. ¿Expresando sus reflejos internos del mundo como lo haríamos un ser humano haciendo lo mismo? ¿Le convencería un modelo de lenguaje sofisticado que escribiera una filosofía sobre la condición humana (o robótica)? Sospecho que, con razón o sin ella, la respuesta es no.

Sentimiento superinteligente

En mi opinión, las pruebas de sensibilidad objetivamente útiles para las máquinas nunca serán satisfactorias para todos los involucrados. Esto se debe en parte al problema de la medición y en parte al hecho de que, cuando llega una IA superinteligente y sensible, no hay razón para creer que su sensibilidad igualará la nuestra. Ya sea arrogancia, falta de imaginación o simplemente el hecho de que es más fácil intercambiar valoraciones subjetivas. de sensibilidad con otros humanos igualmente sensibles, la humanidad nos considera el ejemplo supremo de sensibilidad.

Pero, ¿nuestra versión de la sensibilidad sería válida para una IA superinteligente? ¿Temería a la muerte del mismo modo que lo hacemos nosotros? ¿Tendría la misma necesidad o aprecio por la espiritualidad y la belleza? ¿Poseería un sentido similar de sí mismo y una conceptualización del mundo interior y exterior similar? “Si un león pudiera hablar, no podríamos entenderlo”, escribió Ludwig Wittgenstein, el famoso filósofo del lenguaje del siglo XX. El punto de Wittgenstein era que los lenguajes humanos se basan en una humanidad compartida, con puntos en común compartidos por todas las personas. ya sea alegría, aburrimiento, dolor, hambre o cualquiera de otras experiencias que cruzan todas las fronteras geográficas en Tierra.

Esto puede ser cierto. Aún así, plantea la hipótesis de Lemoine, es probable que haya puntos en común, al menos en lo que respecta a LaMDA.

"Es un punto de partida tan bueno como cualquier otro", afirmó. "LaMDA ha sugerido que primero determinemos las similitudes antes de centrarnos en las diferencias para fundamentar mejor la investigación".

Recomendaciones de los editores

  • La IA convirtió Breaking Bad en un anime, y es aterrador
  • Meta quiere potenciar Wikipedia con una actualización de IA
  • Toque final: cómo los científicos están dando a los robots sentidos táctiles similares a los humanos
  • Lea la inquietantemente hermosa "escritura sintética" de una IA. que piensa que es dios
  • El futuro de la IA: 4 grandes cosas a tener en cuenta en los próximos años