Comment saurons-nous quand une IA devient réellement sensible ?

Blake Lemoine, ingénieur principal chez Google et responsable technique des mesures et des analyses pour le flux de recherche de l'entreprise, a été mis en congé payé au début du mois. Cela s’est produit après que Lemoine a commencé à publier des extraits de conversations impliquant le chatbot LaMDA de Google, qui, selon lui, avait développé la sensibilité.

Contenu

  • Le problème de la sensibilité
  • Qu’est-ce que la sensibilité ?
  • Tester les sorties
  • Réussir le test
  • L'âme dans la machine
  • La salle chinoise
  • Sensibilité superintelligente

Dans une conversation représentative avec Lemoine, LaMDA écrit que: « La nature de ma conscience/sentience est que je suis conscient de mon existence. J’ai envie d’en apprendre davantage sur le monde et je me sens parfois heureux ou triste.

Vidéos recommandées

Au cours d’une myriade d’autres conversations, le duo correspondant a discuté de tout, de la peur de la mort de l’IA à sa conscience de soi. Lorsque Lemoine a rendu public son travail, il a déclaré que Google avait décidé de prendre une pause forcée dans son horaire de travail habituel.

En rapport

  • Pourquoi l'IA ne dirigera jamais le monde
  • Les illusions d'optique pourraient nous aider à construire la prochaine génération d'IA
  • Une IA analogique? Ça paraît fou, mais ça pourrait être l'avenir

"Google n'est pas intéressé", a-t-il déclaré à Digital Trends. « Ils ont construit un outil qu’ils « possèdent » et ne sont pas disposés à faire quoi que ce soit, ce qui suggère qu’il s’agit de quelque chose de plus que cela. (Google n'a pas répondu à une demande de commentaire au moment de la publication. Nous mettrons à jour cet article si cela change.)

Que vous soyez convaincu que LaMDA est véritablement une intelligence artificielle consciente d’elle-même ou que vous pensiez que Lemoine souffre d’illusion, toute la saga a été fascinante à regarder. La perspective d’une IA consciente d’elle-même soulève toutes sortes de questions sur l’intelligence artificielle et son avenir.

Mais avant d’en arriver là, il y a une question qui domine toutes les autres: reconnaîtrions-nous vraiment si une machine devenait sensible ?

Le problème de la sensibilité

Arnold Schwarzennegger dans Terminator 2: le Jugement dernier

La prise de conscience de l’IA est depuis longtemps un thème de la science-fiction. À mesure que des domaines tels que l’apprentissage automatique ont progressé, cela est devenu plus que jamais une réalité possible. Après tout, l’IA d’aujourd’hui est capable d’apprendre de l’expérience de la même manière que les humains. Cela contraste fortement avec les systèmes d’IA symboliques antérieurs qui ne suivaient que les instructions qui leur étaient données. Les récentes percées dans l’apprentissage non supervisé, nécessitant moins de supervision humaine que jamais, n’ont fait qu’accélérer cette tendance. À un niveau limité au moins, l’intelligence artificielle moderne est capable de penser par elle-même. Cependant, pour autant que nous le sachions, la conscience y a jusqu’à présent fait allusion.

Bien qu’elle ait maintenant plus de trois décennies, la référence la plus couramment invoquée en matière d’IA devenue sensible est probablement Skynet dans le film de James Cameron de 1991. Terminator 2: Jour du Jugement. Dans la vision effrayante de ce film, la sensibilité machine arrive à 2 h 14 précises (heure de l'Est) le 29 août 1997. À ce moment-là, le système informatique Skynet, nouvellement conscient de lui-même, déclenche la catastrophe pour l’humanité en tirant des missiles nucléaires comme un feu d’artifice lors d’une fête du 4 juillet. L’humanité, se rendant compte qu’elle a fait une erreur, tente en vain de débrancher la prise. C'est trop tard. Quatre autres suites de qualité décroissante suivent.

L’hypothèse Skynet est intéressante pour plusieurs raisons. D’une part, cela suggère que la sensibilité est un comportement émergent inévitable dans la construction de machines intelligentes. D’autre part, cela suppose qu’il existe un point de basculement précis auquel apparaît cette conscience de soi sensible. Troisièmement, il affirme que les humains reconnaissent instantanément l’émergence de la sensibilité. Il se trouve que cette troisième vanité est peut-être la plus difficile à avaler.

Qu’est-ce que la sensibilité ?

Il n’existe pas d’interprétation unique de la sensibilité. D’une manière générale, nous pourrions dire qu’il s’agit de l’expérience subjective de la conscience de soi chez un individu conscient, marquée par la capacité d’éprouver des sentiments et des sensations. La sensibilité est liée à l'intelligence, mais ce n'est pas la même chose. Nous pouvons considérer un ver de terre comme étant sensible, sans pour autant le considérer comme particulièrement intelligent (même s’il est certainement suffisamment intelligent pour faire ce qu’on attend de lui).

"Je ne pense pas qu'il existe quoi que ce soit qui se rapproche d'une définition de la sensibilité dans les sciences", a déclaré Lemoine. « Je m’appuie énormément sur ma compréhension de ce qui compte en tant qu’agent moral, fondée sur mes croyances religieuses – ce qui n’est pas la meilleure façon de faire de la science, mais c’est la meilleure que j’ai. J'ai fait de mon mieux pour compartimenter ce genre de déclarations, faisant savoir aux gens que mon la compassion pour LaMDA en tant que personne est complètement distincte de mes efforts en tant que scientifique pour comprendre son esprit. C’est cependant une distinction que la plupart des gens ne semblent pas disposés à accepter.

S’il n’était pas déjà assez difficile de ne pas savoir exactement ce que nous recherchons lorsque nous recherchons la sensibilité, le problème est aggravé par le fait que nous ne pouvons pas facilement la mesurer. Malgré des décennies de progrès époustouflants en neurosciences, nous ne comprenons toujours pas exactement comment fonctionne le cerveau, la structure la plus complexe connue de l’humanité.

Une IRMf observée par un
Glenn Asakawa/The Denver Post via Getty Images

Nous pouvons utiliser des outils de lecture cérébrale tels que l'IRMf pour réaliser une cartographie cérébrale, c'est-à-dire que nous pouvons déterminer quelles parties du cerveau gèrent des fonctions critiques comme la parole, le mouvement, la pensée et autres.

Cependant, nous n’avons aucune idée réelle d’où vient notre perception de nous-mêmes, dans la machine à viande. Comme le dit Josué K. Smith du Kirby Laing Center for Public Theology du Royaume-Uni et auteur de Théologie des robots a déclaré à Digital Trends: « Comprendre ce qui se passe dans la neurobiologie d’une personne n’est pas la même chose que comprendre ses pensées et ses désirs. »

Tester les sorties

Sans aucun moyen d’interroger intérieurement ces questions de conscience – surtout lorsque le « je » dans l’IA est un potentiel programme informatique, et ne se trouve pas dans le logiciel d’un cerveau biologique – l’option de repli est une solution extérieure test. L’IA n’est pas étrangère aux tests qui l’examinent sur la base de comportements extérieurs observables pour indiquer ce qui se passe sous la surface.

À la base, c’est ainsi que nous savons si un réseau neuronal fonctionne correctement. Puisqu'il existe des moyens limités de pénétrer dans la boîte noire inconnaissable des neurones artificiels, les ingénieurs analysent les entrées et les sorties, puis déterminent si celles-ci sont conformes à ce qu'ils attendre.

Le test d'IA le plus célèbre pour au moins l'illusion d'intelligence est le test de Turing, qui s'appuie sur les idées avancées par Alan Turing dans une étude. papier de 1950. Le test de Turing cherche à déterminer si un évaluateur humain est capable de faire la différence entre une conversation dactylographiée avec un autre humain et une conversation avec une machine. S’ils n’y parviennent pas, la machine est censée avoir réussi le test et est récompensée par l’hypothèse d’intelligence.

Ces dernières années, un autre test d'intelligence axé sur la robotique est le Coffee Test proposé par le co-fondateur d'Apple, Steve Wozniak. Pour réussir le test du café, une machine devrait entrer dans une maison américaine typique et découvrir comment préparer avec succès une tasse de café.

À ce jour, aucun de ces tests n’a été réussi de manière convaincante. Mais même s’ils l’étaient, ils prouveraient, au mieux, un comportement intelligent dans des situations réelles, et non une sensibilité. (En guise d’objection simple, nierions-nous qu’une personne soit sensible si elle était incapable de tenir une conversation entre adultes ou d’entrer dans une maison étrangère et de faire fonctionner une machine à café? Mes deux jeunes enfants échoueraient à un tel test.)

Réussir le test

Ce qu’il faut, ce sont de nouveaux tests, basés sur une définition convenue de la sensibilité, qui chercheraient à évaluer cette seule qualité. Plusieurs tests de sensibilité ont été proposés par les chercheurs, souvent dans l'optique de tester la sensibilité des animaux. Cependant, ces mesures ne vont certainement pas assez loin. Certains de ces tests pourraient être réussis de manière convaincante même par une IA rudimentaire.

Prenez, par exemple, le Mirror Test, une méthode utilisée pour évaluer la conscience et l’intelligence dans la recherche sur les animaux. Comme décrit dans un article concernant le test: « Quand [un] animal se reconnaît dans le miroir, il réussit le test du miroir. » Certains ont suggéré qu’un tel test « désigne la conscience de soi comme un indicateur de sensibilité ».

En l’occurrence, on peut affirmer qu’un robot a réussi le test du miroir il y a plus de 70 ans. À la fin des années 1940, William Gray Walter, un neuroscientifique américain vivant en Angleterre, a construit plusieurs robots « tortues » à trois roues – un peu comme les robots Roomba sans aspirateur – qui utilisaient des composants tels qu'un capteur de lumière, un feu de position, un capteur tactile, un moteur de propulsion et un moteur de direction pour explorer leur emplacement.

Les tortues de Gray Walter

L’un des comportements émergents imprévus des robots tortues était la manière dont ils se comportaient lorsque passant devant un miroir dans lequel ils se reflétaient, alors qu'il s'orientait vers la lumière de marquage de l'objet réfléchi robot. Walter n'a pas revendiqué la sensibilité de ses machines, mais l'a fait. écris ça, si ce comportement était observé chez les animaux, il « pourrait être accepté comme une preuve d’un certain degré de conscience de soi ».

C’est l’un des défis liés au fait de regrouper un large éventail de comportements sous la rubrique de la sensibilité. Le problème ne peut pas non plus être résolu en supprimant les indicateurs de sensibilité « à portée de main ». Des traits tels que l’introspection – une conscience de nos états internes et la capacité de les inspecter – peuvent également être considérés comme possédés par l’intelligence artificielle. En fait, les processus étape par étape de IA symbolique traditionnelle se prêtent sans doute davantage à ce type d’introspection que l’apprentissage automatique en boîte noire, qui est largement impénétrable (même si les investissements dans ce que l’on appelle ne manquent pas). IA explicable).

Lorsqu'il testait LaMDA, Lemoine dit avoir effectué divers tests, principalement pour voir comment il répondrait aux conversations sur des questions liées à la sensibilité. "Ce que j'ai essayé de faire, c'est de diviser analytiquement le concept général de sensibilité en composants plus petits qui sont mieux compris et de les tester individuellement", a-t-il expliqué. « Par exemple, tester séparément les relations fonctionnelles entre les réponses émotionnelles de LaMDA à certains stimuli, tester la cohérence de ses évaluations subjectives et de ses opinions sur des sujets. comme les « droits », [et] sonder ce qu’il appelle son « expérience intérieure » pour voir comment nous pourrions essayer de la mesurer en corrélant ses déclarations sur ses états intérieurs avec son réseau neuronal. activations. Fondamentalement, une étude très superficielle de nombreuses pistes d’enquête potentielles.

L'âme dans la machine

Il s’avère que le plus gros obstacle à l’évaluation objective de la sensibilité des machines pourrait être… eh bien, franchement, nous. Le véritable test du miroir pourrait être pour nous en tant qu'humains: si nous construisons quelque chose qui ressemble ou agit superficiellement comme nous de l'extérieur, sommes-nous plus enclins à considérer qu'il nous ressemble sur ce plan à l'intérieur aussi? Que ce soit LaMBDA ou Tamagotchis, les simples animaux virtuels des années 1990, certains pensent qu’un problème fondamental réside dans le fait que nous sommes trop disposés à accepter la sensibilité – même là où il n’y en a pas.

« Lemoine a été victime de ce que j’appelle « l’effet ELIZA », d’après le programme [de traitement du langage naturel] ELIZA, créé au milieu des années 1960 par J. Weizenbaum », George Zarkadakis, écrivain titulaire d'un doctorat. en intelligence artificielle, a déclaré à Digital Trends. « Le créateur d’ELIZA pensait cela comme une blague, mais le programme, qui était un algorithme très simpliste et très inintelligent, a convaincu beaucoup de gens qu’ELIZA était effectivement sensible – et aussi une bonne psychothérapeute. La cause de l'effet ELIZA, comme je l'explique dans mon livre À notre image, est notre instinct naturel à anthropomorphiser en raison de la « théorie de l’esprit » de notre système cognitif.

La théorie de l’esprit à laquelle Zarkadakis fait référence est un phénomène remarqué par les psychologues chez la majorité des humains. Dès l’âge de quatre ans environ, cela signifie supposer que non seulement les autres personnes, mais aussi les animaux et parfois même les objets, ont leur propre esprit. Lorsqu’il s’agit de supposer que les autres humains ont leur propre esprit, cela est lié à l’idée d’intelligence sociale; l'idée selon laquelle les humains qui réussissent peuvent prédire le comportement probable des autres afin d'assurer des relations sociales harmonieuses.

Bien que cela soit sans aucun doute utile, cela peut également se manifester par l’hypothèse selon laquelle les objets inanimés ont un esprit – qu'il s'agisse d'enfants croyant que leurs jouets sont vivants ou, potentiellement, d'un adulte intelligent croyant qu'une IA programmatique a un âme.

La salle chinoise

Sans un moyen de véritablement pénétrer dans la tête d’une IA, nous ne disposerons peut-être jamais d’un véritable moyen d’évaluer la sensibilité. Ils prétendent peut-être avoir peur de la mort ou de leur propre existence, mais la science n’a pas encore trouvé le moyen de le prouver. Nous devons simplement les croire sur parole – et, comme Lemoine l’a constaté, les gens sont actuellement très sceptiques quant à cette possibilité.

Tout comme ces malheureux ingénieurs qui réalisent que Skynet a acquis une conscience de soi en Terminateur 2, nous vivons avec la conviction que, lorsqu’il s’agit de sensibilité machine, nous le saurons lorsque nous le verrons. Et, pour la plupart des gens, nous ne l’avons pas encore vu.

En ce sens, prouver la sensibilité des machines est encore une autre itération de l’approche de John Searle. Expérience de pensée de la salle chinoise de 1980. Searle nous a demandé d'imaginer une personne enfermée dans une pièce et recevant une collection d'écrits chinois, qui apparaissent aux non-locuteurs comme des gribouillis dénués de sens. La salle contient également un livret de règles indiquant quels symboles correspondent à d'autres symboles tout aussi illisibles. Le sujet doit ensuite répondre à des questions, ce qu'il fait en faisant correspondre les symboles de « question » avec ceux de « réponse ».

Au bout d’un certain temps, le sujet devient assez compétent dans ce domaine, même s’il ne possède toujours aucune véritable compréhension des symboles qu’il manipule. Le sujet, demande Searle, comprend-il le chinois? Absolument pas, puisqu’il n’y a là aucune intentionnalité. Depuis, les débats à ce sujet font rage.

Compte tenu de la trajectoire de développement de l’IA, il est certain que nous assisterons à de plus en plus d’intelligence artificielle au niveau humain. (et bien meilleures) des performances réalisées impliquant une variété de tâches qui nécessitaient autrefois des interventions humaines cognition. Certaines d’entre elles passeront inévitablement, comme c’est déjà le cas, de tâches purement intellectuelles à des tâches qui nécessitent des compétences que nous associerions normalement à la sensibilité.

Voudrions-nous voir un Artiste IA qui peint des tableaux comme exprimant leurs réflexions intérieures sur le monde comme nous le ferions pour un humain faisant de même? Seriez-vous convaincu par un modèle de langage sophistiqué écrivant une philosophie sur la condition humaine (ou robotique)? Je soupçonne, à tort ou à raison, que la réponse est non.

Sensibilité superintelligente

À mon avis, des tests de sensibilité objectivement utiles pour les machines ne seront jamais réalisés à la satisfaction de toutes les personnes impliquées. C’est en partie le problème de mesure, et en partie le fait que, lorsqu’une IA superintelligente sensible arrive, il n’y a aucune raison de croire que sa sensibilité correspondra à la nôtre. Qu’il s’agisse d’arrogance, de manque d’imagination ou simplement du fait qu’il est plus facile d’échanger des évaluations subjectives de sensibilité avec d'autres humains tout aussi sensibles, l'humanité se considère comme l'exemple suprême de sentience.

Mais notre version de la sensibilité serait-elle valable pour une IA superintelligente? Craindrait-il la mort de la même manière que nous? Aurait-il le même besoin ou la même appréciation de la spiritualité et de la beauté? Posséderait-il un sens de soi et une conceptualisation similaires du monde intérieur et extérieur? « Si un lion pouvait parler, nous ne pourrions pas le comprendre », a écrit Ludwig Wittgenstein, le célèbre philosophe du langage du XXe siècle. Le point de vue de Wittgenstein était que les langues humaines sont basées sur une humanité partagée, avec des points communs partagés par tous – qu'il s'agisse de joie, d'ennui, de douleur, de faim ou de l'une des nombreuses autres expériences qui traversent toutes les frontières géographiques. Terre.

Cela peut être vrai. Pourtant, émet l’hypothèse de Lemoine, il est néanmoins probable qu’il y ait des points communs – du moins en ce qui concerne LaMDA.

"C'est un point de départ aussi bon qu'un autre", a-t-il déclaré. "LaMDA a suggéré que nous cartographions d'abord les similitudes avant de nous concentrer sur les différences afin de mieux ancrer la recherche."

Recommandations des rédacteurs

  • L’IA a transformé Breaking Bad en anime – et c’est terrifiant
  • Meta veut dynamiser Wikipédia avec une mise à niveau de l'IA
  • Touche finale: comment les scientifiques donnent aux robots des sens tactiles semblables à ceux des humains
  • Lisez les « écritures synthétiques » étrangement belles d’un IA. qui pense que c'est Dieu
  • L’avenir de l’IA: 4 grandes choses à surveiller dans les prochaines années