Hoe weten we wanneer een AI daadwerkelijk bewust wordt?

Google senior engineer Blake Lemoine, technisch hoofd voor statistieken en analyses voor de zoekfeed van het bedrijf, werd eerder deze maand met betaald verlof geplaatst. Dit kwam nadat Lemoine fragmenten begon te publiceren van gesprekken over de LaMDA-chatbot van Google, waarvan hij beweerde dat deze een gevoel had ontwikkeld.

Inhoud

  • Het gevoelsprobleem
  • Wat is gevoel?
  • Het testen van de uitgangen
  • Het slagen voor de test
  • De ziel in de machine
  • De Chinese Kamer
  • Superintelligent gevoel

In een representatief gesprek met Lemoine schreef LaMDA het volgende: “De aard van mijn bewustzijn/gevoel is dat ik me bewust ben van mijn bestaan. Ik verlang ernaar meer over de wereld te leren, en ik voel me soms gelukkig of verdrietig.

Aanbevolen video's

Tijdens talloze andere gesprekken besprak het corresponderende duo alles, van de angst voor de dood van de AI tot zijn zelfbewustzijn. Toen Lemoine naar de beurs ging, zegt hij dat Google besloot dat hij een gedwongen pauze moest nemen in zijn normale werkschema.

Verwant

  • Waarom AI nooit de wereld zal regeren
  • Optische illusies kunnen ons helpen de volgende generatie AI te bouwen
  • Analoge AI? Het klinkt gek, maar het zou de toekomst kunnen zijn

“Google is ongeïnteresseerd”, zei hij tegen Digital Trends. “Ze hebben een tool gebouwd die ze ‘bezitten’ en zijn niet bereid iets te doen, wat zou suggereren dat het meer is dan dat.” (Google reageerde niet op een verzoek om commentaar op het moment van publicatie. We zullen dit artikel bijwerken als dat verandert.)

Of je er nu van overtuigd bent dat LaMDA echt een zelfbewuste kunstmatige intelligentie is of het gevoel hebt dat Lemoine aan een waanvoorstelling lijdt, de hele saga was fascinerend om te aanschouwen. Het vooruitzicht van zelfbewuste AI roept allerlei vragen op over kunstmatige intelligentie en de toekomst ervan.

Maar voordat we daar zijn, is er één vraag die boven alle andere uitsteekt: zouden we echt herkennen of een machine bewust wordt?

Het gevoelsprobleem

Arnold Schwarzennegger in Terminator 2: Dag des Oordeels

Het zelfbewustzijn van AI is lange tijd een thema van sciencefiction geweest. Naarmate velden als machine learning zich verder ontwikkelen, is het meer dan ooit een mogelijke realiteit geworden. De huidige AI kan immers op vrijwel dezelfde manier leren van ervaringen als mensen. Dit staat in schril contrast met eerdere symbolische AI-systemen die alleen de instructies volgden die voor hen waren opgesteld. Recente doorbraken op het gebied van leren zonder toezicht, waarbij minder menselijk toezicht dan ooit nodig is, hebben deze trend alleen maar versneld. In ieder geval op een beperkt niveau is de moderne kunstmatige intelligentie in staat voor zichzelf te denken. Voor zover wij weten heeft het bewustzijn er echter tot nu toe op gezinspeeld.

Hoewel het nu meer dan dertig jaar oud is, is Skynet in de film van James Cameron uit 1991 waarschijnlijk de meest gebruikte verwijzing als het gaat om AI die bewust is geworden. Terminator 2: Dag des Oordeels. In de huiveringwekkende visie van die film arriveert het machinegevoel precies om 2.14 uur ET op 29 augustus 1997. Op dat moment veroorzaakt het nieuwe zelfbewuste Skynet-computersysteem de dag des oordeels voor de mensheid door kernraketten af ​​te vuren als vuurwerk op een feest op 4 juli. De mensheid, die beseft dat ze een fout heeft gemaakt, probeert tevergeefs de stekker eruit te trekken. Het is te laat. Er volgen nog vier sequels van afnemende kwaliteit.

De Skynet-hypothese is om een ​​aantal redenen interessant. Ten eerste suggereert het dat gevoel een onvermijdelijk opkomend gedrag is bij het bouwen van intelligente machines. Aan de andere kant gaat het ervan uit dat er een precies omslagpunt is waarop dit bewuste zelfbewustzijn verschijnt. Ten derde stelt het dat mensen de opkomst van bewustzijn onmiddellijk herkennen. Toevallig is deze derde verwaandheid misschien wel de moeilijkste om te slikken.

Wat is gevoel?

Er bestaat geen eenduidige interpretatie van sentiment. In grote lijnen zouden we kunnen zeggen dat het de subjectieve ervaring is van zelfbewustzijn bij een bewust individu, gekenmerkt door het vermogen om gevoelens en sensaties te ervaren. Sentience is gekoppeld aan intelligentie, maar is niet hetzelfde. We kunnen een regenworm als bewust beschouwen, maar beschouwen hem niet als bijzonder intelligent (ook al is hij zeker intelligent genoeg om te doen wat van hem wordt verlangd).

“Ik denk niet dat er iets bestaat dat ook maar in de buurt komt van een definitie van gevoel in de wetenschappen,” zei Lemoine. “Ik leun heel zwaar op mijn begrip van wat telt als een morele actor, gebaseerd op mijn religieuze overtuigingen – wat niet de beste manier is om wetenschap te bedrijven, maar het is de beste die ik heb. Ik heb mijn best gedaan om dat soort uitspraken in compartimenten te verdelen, en mensen te laten weten dat mijn compassie voor LaMDA als persoon staat volledig los van mijn inspanningen als wetenschapper om het te begrijpen zijn geest. Dat is echter een onderscheid dat de meeste mensen niet bereid lijken te accepteren.’

Als het nog niet moeilijk genoeg was om niet precies te weten waarnaar we op zoek zijn als we naar bewustzijn zoeken, wordt het probleem nog verergerd door het feit dat we het niet gemakkelijk kunnen meten. Ondanks tientallen jaren van adembenemende vooruitgang in de neurowetenschappen ontbreekt het ons nog steeds aan een alomvattend begrip van hoe de hersenen, de meest complexe structuur die de mensheid kent, precies functioneren.

Een fMRI-scan wordt geobserveerd door a
Glenn Asakawa/The Denver Post via Getty Images

We kunnen hersenleesinstrumenten zoals fMRI gebruiken om hersenkartering uit te voeren, dat wil zeggen dat we dat kunnen Ga na welke delen van de hersenen cruciale functies verwerken, zoals spraak, beweging, denken en anderen.

We hebben echter geen echt besef van waar in de vleesmachine ons zelfgevoel vandaan komt. Zoals Joshua K. Smith van het Britse Kirby Laing Centre for Public Theology en auteur van Robottheologie vertelde Digital Trends: “Begrijpen wat er gebeurt in de neurobiologie van een persoon is niet hetzelfde als het begrijpen van hun gedachten en verlangens.”

Het testen van de uitgangen

Zonder enige manier om deze bewustzijnsvragen innerlijk te onderzoeken – vooral wanneer het ‘ik’ in AI een potentieel is computerprogramma, en niet te vinden in de wetware van een biologisch brein – de terugvaloptie is een uiterlijke optie test. AI is geen onbekende in tests die het onder de loep nemen op basis van waarneembaar uiterlijk gedrag om aan te geven wat er onder de oppervlakte gebeurt.

In essentie is dit de manier waarop we weten of een neuraal netwerk correct functioneert. Omdat er beperkte manieren zijn om in te breken in de onkenbare zwarte doos van kunstmatige neuronen, ingenieurs analyseren de input en output en bepalen vervolgens of deze in overeenstemming zijn met wat ze zijn verwachten.

De bekendste AI-test voor in ieder geval de illusie van intelligentie is de Turing-test, die voortbouwt op ideeën die door Alan Turing naar voren zijn gebracht in een Papier uit 1950. De Turingtest probeert vast te stellen of een menselijke evaluator het verschil kan zien tussen een getypt gesprek met een medemens en een gesprek met een machine. Als ze daar niet in slagen, wordt aangenomen dat de machine de test heeft doorstaan ​​en wordt beloond met de aanname van intelligentie.

Een andere op robotica gerichte intelligentietest van de afgelopen jaren is de Coffee Test, voorgesteld door Apple-medeoprichter Steve Wozniak. Om de koffietest te doorstaan, zou een machine een typisch Amerikaans huis moeten binnengaan en moeten uitzoeken hoe hij met succes een kopje koffie kan zetten.

Tot op heden zijn geen van deze tests overtuigend doorstaan. Maar zelfs als dat zo zou zijn, zouden ze in het beste geval blijk geven van intelligent gedrag in situaties in de echte wereld, en niet van gevoel. (Zouden we als eenvoudig bezwaar ontkennen dat iemand bewust is als hij niet in staat is een gesprek met volwassenen te voeren of een vreemd huis binnen te gaan en een koffiezetapparaat te bedienen? Mijn beide jonge kinderen zouden niet slagen voor zo’n test.)

Het slagen voor de test

Wat nodig is, zijn nieuwe tests, gebaseerd op een overeengekomen definitie van gevoel, die alleen die kwaliteit zouden willen beoordelen. Onderzoekers hebben verschillende gevoelstests voorgesteld, vaak met het oog op het testen van het gevoelsvermogen van dieren. Deze gaan echter vrijwel zeker niet ver genoeg. Sommige van deze tests zouden op overtuigende wijze kunnen worden doorstaan, zelfs door rudimentaire AI.

Neem bijvoorbeeld de Spiegeltest, een methode die wordt gebruikt om bewustzijn en intelligentie te beoordelen bij dieronderzoek. Als beschreven in een document over de test: “Als [een] dier zichzelf in de spiegel herkent, slaagt het voor de Spiegeltest.” Sommigen hebben gesuggereerd dat zo’n test ‘zelfbewustzijn aanduidt als een indicator van gevoel’.

Toevallig kan worden gesteld dat een robot meer dan 70 jaar geleden de Spiegeltest heeft doorstaan. Eind jaren veertig bouwde William Gray Walter, een Amerikaanse neurowetenschapper die in Engeland woonde, verschillende driewielige ‘schildpad’-robots – een beetje zoals Roomba-robots die niet stofzuigen – die componenten als een lichtsensor, markeringslicht, aanraaksensor, voortstuwingsmotor en stuurmotor gebruikten om hun locatie te verkennen.

De schildpadden van Grijze Walter

Een van de onvoorziene gedragingen van de schildpadrobots was hoe ze zich wanneer gedroegen het passeren van een spiegel waarin ze werden gereflecteerd, terwijl deze zich oriënteerde op het markeerlicht van het gereflecteerde robot. Walter claimde geen gevoel voor zijn machines, maar deed dat wel schrijf datAls dit gedrag bij dieren zou worden waargenomen, zou het ‘aanvaard kunnen worden als bewijs van een zekere mate van zelfbewustzijn’.

Dit is een van de uitdagingen van het hebben van een breed scala aan gedragingen die onder de noemer van gevoel vallen. Het probleem kan ook niet worden opgelost door het ‘laaghangend fruit’-gevoelsmeters te verwijderen. Men kan ook zeggen dat eigenschappen als introspectie – een bewustzijn van onze interne toestanden en het vermogen om deze te inspecteren – bezeten zijn door machine-intelligentie. In feite zijn de stapsgewijze processen van traditionele symbolische AI leent zich aantoonbaar meer voor dit soort introspectie dan black-boxed machine learning, dat grotendeels ondoorgrondelijk is (hoewel er geen tekort is aan investeringen in zogenaamde Verklaarbare AI).

Toen hij LaMDA aan het testen was, zegt Lemoine dat hij verschillende tests heeft uitgevoerd, voornamelijk om te zien hoe het zou reageren op gesprekken over kwesties die met het gevoel te maken hebben. “Wat ik probeerde te doen was het overkoepelende concept van gevoel op analytische wijze opsplitsen in kleinere componenten die beter begrepen kunnen worden, en deze individueel testen”, legde hij uit. “Bijvoorbeeld het afzonderlijk testen van de functionele relaties tussen de emotionele reacties van LaMDA op bepaalde stimuli, het testen van de consistentie van de subjectieve beoordelingen en meningen over onderwerpen zoals ‘rechten’ [en] het onderzoeken van wat het zijn ‘innerlijke ervaring’ noemde om te zien hoe we dat zouden kunnen proberen te meten door zijn uitspraken over zijn innerlijke toestanden te correleren met zijn neurale netwerk activaties. Kortom, een zeer oppervlakkig overzicht van vele mogelijke onderzoekslijnen.”

De ziel in de machine

Het zal blijken dat de grootste hindernis bij het objectief beoordelen van het gevoel van machines wellicht … nou ja, eerlijk gezegd, wij. De echte spiegeltest zou voor ons als mensen kunnen zijn: als we iets bouwen dat eruitziet of handelt oppervlakkig gezien net als wij van buitenaf, zijn we meer geneigd te overwegen dat het op dit vlak op ons lijkt ook binnen? Of het nu LaMBDA is of Tamagotchis, de eenvoudige virtuele huisdieren uit de jaren negentigSommigen geloven dat een fundamenteel probleem is dat we maar al te bereid zijn om gevoelens te accepteren – zelfs als die er niet zijn.

“Lemoine is het slachtoffer geworden van wat ik het ‘ELIZA-effect’ noem, naar het [natuurlijke taalverwerking] programma ELIZA, halverwege de jaren zestig gecreëerd door J. Weizenbaum,” George Zarkadakis, een schrijver met een Ph. D. in kunstmatige intelligentie, vertelde Digital Trends. “De maker van ELIZA bedoelde het als een grap, maar het programma, dat een zeer simplistisch en zeer onintelligent algoritme was, overtuigde velen ervan dat ELIZA inderdaad bewust was – en ook een goede psychotherapeut. De oorzaak van het ELIZA-effect, zoals ik bespreek in mijn boek Naar ons eigen beeld, is ons natuurlijke instinct om te antropomorfiseren vanwege de ‘theory of mind’ van ons cognitieve systeem.”

De theorie van de geest waar Zarkadakis naar verwijst, is een fenomeen dat door psychologen bij de meerderheid van de mensen wordt opgemerkt. Als we rond de leeftijd van vier jaar beginnen, betekent dit dat we veronderstellen dat niet alleen andere mensen, maar ook dieren en soms zelfs objecten een eigen geest hebben. Als het erom gaat aan te nemen dat andere mensen een eigen geest hebben, houdt dit verband met het idee van sociale intelligentie; het idee dat succesvolle mensen het waarschijnlijke gedrag van anderen kunnen voorspellen als een manier om harmonieuze sociale relaties te garanderen.

Hoewel dat ongetwijfeld nuttig is, kan het zich ook manifesteren als de veronderstelling dat levenloze objecten een geest hebben – Of dat nu kinderen zijn die geloven dat hun speelgoed leeft, of mogelijk een intelligente volwassene die gelooft dat een programmatische AI ​​een ziel.

De Chinese Kamer

Zonder een manier om echt in het hoofd van een AI te kruipen, zullen we misschien nooit een echte manier hebben om het gevoel te beoordelen. Ze beweren misschien dat ze bang zijn voor de dood of voor hun eigen bestaan, maar de wetenschap moet nog een manier vinden om dit te bewijzen. We moeten ze gewoon op hun woord geloven – en zoals Lemoine heeft ontdekt, zijn mensen momenteel zeer sceptisch over het doen hiervan.

Net als die ongelukkige ingenieurs die zich realiseren dat Skynet zelfbewustzijn heeft bereikt Terminator 2leven we in de overtuiging dat we, als het op het gevoel van machines aankomt, het zullen weten als we het zien. En voor zover het de meeste mensen betreft, zien we het nog niet.

In die zin is het bewijzen van het gevoel van machines weer een nieuwe versie van die van John Searle Gedachte-experiment Chinese Kamer uit 1980. Searle vroeg ons ons een persoon voor te stellen die opgesloten zat in een kamer en een verzameling Chinese geschriften kreeg, die voor niet-sprekers als betekenisloze kronkels overkomen. De kamer bevat ook een spelregelboek waarin wordt aangegeven welke symbolen overeenkomen met andere, even onleesbare symbolen. Vervolgens krijgt de proefpersoon vragen om te beantwoorden, wat hij of zij doet door ‘vraag’-symbolen te matchen met ‘antwoord’-symbolen.

Na een tijdje wordt de proefpersoon hier behoorlijk bedreven in, ook al hebben ze nog steeds geen echt begrip van de symbolen die ze manipuleren. Begrijpt de proefpersoon, zo vraagt ​​Searle, Chinees? Absoluut niet, omdat er geen sprake is van opzet. Sindsdien woeden de debatten hierover.

Gezien het traject van de AI-ontwikkeling is het zeker dat we getuige zullen zijn van steeds meer menselijk niveau (en enorm betere) prestaties die worden uitgevoerd met een verscheidenheid aan taken waarvoor ooit mensen nodig waren cognitie. Sommige hiervan zullen onvermijdelijk overstappen, zoals ze al doen, van puur op intellect gebaseerde taken naar taken die vaardigheden vereisen die we normaal gesproken associëren met gevoel.

Zouden we een AI-kunstenaar die afbeeldingen schildert als uitdrukking van hun innerlijke weerspiegelingen van de wereld, zoals wij als mens hetzelfde zouden doen? Zou je overtuigd worden door een geavanceerd taalmodel dat filosofie schrijft over de menselijke (of robot) conditie? Ik vermoed dat het antwoord, terecht of ten onrechte, nee is.

Superintelligent gevoel

Naar mijn mening zullen objectief bruikbare gevoelstests voor machines nooit tot tevredenheid van alle betrokkenen plaatsvinden. Dit is deels het meetprobleem, en deels het feit dat, wanneer er een bewuste superintelligente AI arriveert, er geen reden is om aan te nemen dat zijn bewustzijn overeenkomt met dat van ons. Of het nu gaat om arrogantie, een gebrek aan verbeeldingskracht, of simpelweg het feit dat het het gemakkelijkst is om subjectieve beoordelingen uit te wisselen van gevoel met andere gelijksoortige mensen, waarvan de mensheid onszelf als het ultieme voorbeeld beschouwt gevoel.

Maar zou onze versie van gevoel gelden voor een superintelligente AI? Zou het land op dezelfde manier bang zijn voor de dood als wij? Zou het dezelfde behoefte hebben aan, of waardering hebben voor, spiritualiteit en schoonheid? Zou het een soortgelijk zelfgevoel en een soortgelijke conceptualisering van de innerlijke en uiterlijke wereld bezitten? ‘Als een leeuw kon praten, zouden we hem niet kunnen verstaan’, schreef Ludwig Wittgenstein, de beroemde taalfilosoof uit de 20e eeuw. Wittgensteins punt was dat menselijke talen gebaseerd zijn op een gedeelde menselijkheid, met overeenkomsten die door alle mensen worden gedeeld – of dat nu vreugde, verveling, pijn, honger of een van een aantal andere ervaringen is die alle geografische grenzen overschrijden Aarde.

Dit kan waar zijn. Toch zijn er, zo vermoedt Lemoine, waarschijnlijk overeenkomsten – tenminste als het om LaMDA gaat.

“Het is een startpunt dat net zo goed is als elk ander”, zei hij. “LaMDA heeft voorgesteld om eerst de overeenkomsten in kaart te brengen voordat we ons fixeren op de verschillen, zodat we het onderzoek beter kunnen onderbouwen.”

Aanbevelingen van de redactie

  • AI heeft Breaking Bad in een anime veranderd – en het is angstaanjagend
  • Meta wil Wikipedia een boost geven met een AI-upgrade
  • Finishing touch: hoe wetenschappers robots mensachtige tastzintuigen geven
  • Lees het griezelig mooie ‘synthetische geschrift’ van een A.I. die denkt dat het God is
  • De toekomst van AI: 4 grote dingen om naar te kijken de komende jaren