Hur ska vi veta när en AI faktiskt blir kännande?

Googles senioringenjör Blake Lemoine, teknisk ledare för mätvärden och analys för företagets sökflöde, fick betald ledighet tidigare denna månad. Detta kom efter att Lemoine började publicera utdrag av konversationer som involverade Googles LaMDA-chatbot, som han hävdade hade utvecklat känslor.

Innehåll

  • Känslans problem
  • Vad är sentience?
  • Testa utgångarna
  • Klarar provet
  • Själen i maskinen
  • Det kinesiska rummet
  • Superintelligent känsla

I ett representativt samtal med Lemoine skrev LaMDA att: "Kartan av mitt medvetande/förnimmelse är att jag är medveten om min existens. Jag vill lära mig mer om världen, och jag känner mig glad eller ledsen ibland.”

Rekommenderade videor

Under otaliga andra konversationer diskuterade motsvarande duo allt från AI: s rädsla för döden till dess självmedvetenhet. När Lemoine offentliggjordes säger han att Google bestämde sig för att han skulle ta ett påtvingat uppehåll från sitt vanliga arbetsschema.

Relaterad

  • Varför AI aldrig kommer att styra världen
  • Optiska illusioner kan hjälpa oss att bygga nästa generations AI
  • Analog A.I.? Det låter galet, men det kanske är framtiden

"Google är ointresserat", sa han till Digital Trends. "De byggde ett verktyg som de "äger" och är ovilliga att göra någonting, vilket skulle tyda på att det är något mer än så." (Google svarade inte på en begäran om kommentar vid tidpunkten för publiceringen. Vi kommer att uppdatera den här artikeln om det ändras.)

Oavsett om du är övertygad om att LaMDA verkligen är en självmedveten artificiell intelligens eller känner att Lemoine arbetar under en villfarelse, har hela sagan varit fascinerande att se. Utsikten till självmedveten AI väcker alla möjliga frågor om artificiell intelligens och dess framtid.

Men innan vi kommer dit, finns det en fråga som tornar upp sig över alla andra: Skulle vi verkligen känna igen om en maskin blev kännande?

Känslans problem

Arnold Schwarzennegger i Terminator 2: Judgment Day

Att bli självmedveten om AI har länge varit ett tema inom science fiction. När områden som maskininlärning har utvecklats har det blivit mer av en möjlig verklighet än någonsin. När allt kommer omkring kan dagens AI lära sig av erfarenhet på ungefär samma sätt som människor. Detta står i skarp kontrast till tidigare symboliska AI-system som bara följde instruktioner som lagts ut för dem. De senaste genombrotten inom oövervakat lärande, som kräver mindre mänsklig övervakning än någonsin, har bara påskyndat denna trend. Åtminstone på en begränsad nivå är modern artificiell intelligens kapabel att tänka själv. Såvitt vi är medvetna om har dock medvetandet hittills anspelat på det.

Även om den nu är mer än tre decennier gammal, är förmodligen den vanligaste referensen när det gäller AI gone sentient Skynet i James Camerons film från 1991 Terminator 2: Judgment Day. I den filmens skrämmande vision anländer maskinkänslan exakt klockan 02.14 ET den 29 augusti 1997. I det ögonblicket utlöser det nyligen självmedvetna Skynet-datorsystemet domedagen för mänskligheten genom att avfyra kärnvapenmissiler som fyrverkerier på en fest den 4 juli. Mänskligheten, som inser att det har gått sönder, försöker utan framgång dra ur kontakten. Det är för sent. Ytterligare fyra uppföljare av avtagande kvalitet följer.

Skynet-hypotesen är intressant av flera anledningar. För det första antyder det att förnimmelse är ett oundvikligt framväxande beteende för att bygga intelligenta maskiner. För en annan antar den att det finns en exakt vändpunkt där denna kännande självmedvetenhet uppträder. För det tredje står det att människor känner igen uppkomsten av känslor omedelbart. Som det händer kan denna tredje inbilskhet vara den svåraste att svälja.

Vad är sentience?

Det finns ingen överenskommen tolkning av meningen. I stora drag kan vi säga att det är den subjektiva upplevelsen av självmedvetenhet hos en medveten individ, präglad av förmågan att uppleva känslor och förnimmelser. Sentience är kopplat till intelligens, men är inte detsamma. Vi kanske anser att en daggmask är kännande, även om den inte är särskilt intelligent (även om den säkert är tillräckligt intelligent för att göra vad som krävs av den).

"Jag tror inte att det finns något som närmar sig en definition av sentience inom vetenskapen," sa Lemoine. "Jag lutar väldigt mycket mot min förståelse av vad som räknas som en moralisk agent grundad i min religiösa övertygelse - vilket inte är det bästa sättet att göra vetenskap på, men det är det bästa jag har. Jag har försökt mitt bästa för att särskilja den sortens uttalanden och låta folk veta att min medkänsla för LaMDA som person är helt skild från mina ansträngningar som vetenskapsman att förstå dess sinne. Det är dock en distinktion som de flesta verkar ovilliga att acceptera."

Om det inte var svårt nog att inte veta exakt vad vi söker efter när vi söker efter känslor, förvärras problemet av det faktum att vi inte enkelt kan mäta det. Trots årtionden av hisnande framsteg inom neurovetenskap, saknar vi fortfarande en heltäckande förståelse för exakt hur hjärnan, den mest komplexa struktur som mänskligheten känner till, fungerar.

En fMRI-skanning observeras av en
Glenn Asakawa/The Denver Post via Getty Images

Vi kan använda hjärnavläsningsverktyg som fMRI för att utföra hjärnkartläggning, det vill säga att vi kan ta reda på vilka delar av hjärnan som hanterar kritiska funktioner som tal, rörelse, tanke och andra.

Vi har dock ingen riktig känsla för varifrån i köttmaskinen vår självkänsla kommer. Som Joshua K. Smith från Storbritanniens Kirby Laing Center for Public Theology och författare till Robotteologi sa till Digital Trends: "Att förstå vad som händer inom en persons neurobiologi är inte detsamma som att förstå deras tankar och önskningar."

Testa utgångarna

Utan något sätt att invärtes undersöka dessa frågor om medvetande – speciellt när "jag" i AI är en potentiell datorprogram, och inte att finnas i våtgodset i en biologisk hjärna – reservalternativet är ett utåtriktat testa. AI är inte främmande för tester som granskar den baserat på observerbara yttre beteenden för att indikera vad som händer under ytan.

Som mest grundläggande är det så här vi vet om ett neuralt nätverk fungerar korrekt. Eftersom det finns begränsade sätt att bryta sig in i den okända svarta lådan av artificiella neuroner, ingenjörer analyserar input och output och avgör sedan om dessa är i linje med vad de förvänta.

Det mest kända AI-testet för åtminstone illusionen av intelligens är Turing-testet, som bygger på idéer som lades fram av Alan Turing i en 1950 papper. Turingtestet försöker avgöra om en mänsklig utvärderare kan se skillnaden mellan en maskinskriven konversation med en medmänniska och en med en maskin. Om de inte kan göra det, antas maskinen ha klarat testet och belönas med antagandet om intelligens.

På senare år har ett annat robotikfokuserat intelligenstest varit Coffee Test som föreslagits av Apples medgrundare Steve Wozniak. För att klara kaffetestet måste en maskin gå in i ett typiskt amerikanskt hem och ta reda på hur man lyckas göra en kopp kaffe.

Hittills har inget av dessa prov godkänts på ett övertygande sätt. Men även om de var det, skulle de i bästa fall bevisa intelligent beteende i verkliga situationer, och inte känslor. (Som en enkel invändning, skulle vi förneka att en person var kännande om de inte kunde föra en vuxenkonversation eller gå in i ett främmande hus och använda en kaffemaskin? Båda mina små barn skulle misslyckas med ett sådant test.)

Klarar provet

Vad som behövs är nya tester, baserade på en överenskommen definition av mening, som skulle försöka bedöma den kvaliteten ensam. Flera tester av känslor har föreslagits av forskare, ofta i syfte att testa djurens känslor. Men dessa går nästan säkert inte tillräckligt långt. Vissa av dessa tester kunde övertygande klaras av till och med rudimentär AI.

Ta till exempel Mirror Test, en metod som används för att bedöma medvetenhet och intelligens i djurforskning. Som beskrivs i en tidning angående testet: "När [ett] djur känner igen sig i spegeln klarar det spegeltestet." Vissa har föreslagit att ett sådant test "betecknar självmedvetenhet som en indikator på känslor."

Som det händer kan det hävdas att en robot klarade Spegeltestet för mer än 70 år sedan. I slutet av 1940-talet byggde William Gray Walter, en amerikansk neuroforskare bosatt i England flera trehjuliga "sköldpadda"-robotar – lite som icke-dammsugande Roomba-robotar – som använde komponenter som en ljussensor, markeringsljus, peksensor, framdrivningsmotor och styrmotor för att utforska sin plats.

Grå Walters sköldpaddor

En av de oförutsedda bitarna av framväxande beteende för sköldpaddsrobotarna var hur de betedde sig när passerar en spegel i vilken de reflekterades, när den orienterade sig mot den reflekterades markörljus robot. Walter gjorde inte anspråk på känslor för sina maskiner, men gjorde det skriv det, om detta beteende skulle bevittnas hos djur, skulle det "kan accepteras som bevis på en viss grad av självmedvetenhet."

Detta är en av utmaningarna med att ha ett brett spektrum av beteenden klassade under rubriken förnimmelse. Problemet kan inte heller lösas genom att ta bort "lågt hängande frukt" mätare av känslor. Egenskaper som introspektion – en medvetenhet om våra inre tillstånd och förmågan att inspektera dessa – kan också sägas innehas av maskinell intelligens. Faktum är att de steg-för-steg-processer traditionell symbolisk AI utan tvekan lämpar sig för denna typ av introspektion mer än black-boxed machine learning, som i stort sett är outgrundlig (även om det inte råder brist på investeringar i s.k. Förklarlig AI).

När han testade LaMDA, säger Lemoine att han genomförde olika tester, främst för att se hur det skulle svara på samtal om sinnesrelaterade frågor. "Vad jag försökte göra var att analytiskt bryta upp paraplybegreppet med känsla i mindre komponenter som är bättre förstådda och testa dem individuellt," förklarade han. "Till exempel testa de funktionella relationerna mellan LaMDA: s känslomässiga svar på vissa stimuli separat, testa konsekvensen av dess subjektiva bedömningar och åsikter om ämnen som "rättigheter" [och] undersöka vad den kallade sin "inre upplevelse" för att se hur vi kan försöka mäta det genom att korrelera dess uttalanden om dess inre tillstånd med dess neurala nätverk aktiveringar. I grund och botten en mycket ytlig undersökning av många potentiella undersökningslinjer.”

Själen i maskinen

Som det visar sig, kan det största hindret med att objektivt bedöma maskinkänsla vara … ja, ärligt talat, vi. Det sanna spegeltestet kan vara för oss som människor: om vi bygger något som ser ut eller fungerar ytligt gillar oss utifrån, är vi mer benägna att anse att det är som oss på detta inuti också? Oavsett om det är LaMBDA eller Tamagotchis, de enkla virtuella husdjuren från 1990-talet, vissa anser att ett grundläggande problem är att vi är alltför villiga att acceptera känslor – även där det inte finns något att finna.

"Lemoine har fallit offer för vad jag kallar "ELIZA-effekten", efter programmet ELIZA för [naturligt språkbehandling], skapat i mitten av 1960-talet av J. Weizenbaum”, George Zarkadakis, en författare som har en doktorsexamen. inom artificiell intelligens, berättade för Digital Trends. “ELIZAS skapare menade det som ett skämt, men programmet, som var en väldigt förenklad och väldigt ointelligent algoritm, övertygade många om att ELIZA verkligen var kännande – och en bra psykoterapeut också. Orsaken till ELIZA-effekten, som jag diskuterar i min bok I Vår Egen Bild, är vår naturliga instinkt att antropomorfisera på grund av vårt kognitiva systems "sinneteori."

Theory of mind Zarkadakis hänvisar till är ett fenomen som uppmärksammas av psykologer hos majoriteten av människor. När man är vid fyra års ålder betyder det att inte bara andra människor, utan även djur och ibland även föremål, har sina egna sinnen. När det gäller att anta att andra människor har sina egna sinnen, är det kopplat till idén om social intelligens; idén att framgångsrika människor kan förutsäga andras sannolika beteende som ett sätt att säkerställa harmoniska sociala relationer.

Även om det utan tvekan är användbart, men det kan också visa sig som antagandet att livlösa föremål har sinnen - oavsett om det är barn som tror att deras leksaker lever eller, potentiellt, en intelligent vuxen som tror att en programmatisk AI har en själ.

Det kinesiska rummet

Utan ett sätt att verkligen komma in i huvudet på en AI, kanske vi aldrig har ett riktigt sätt att bedöma känslor. De kan säga sig vara rädda för döden eller sin egen existens, men vetenskapen har ännu inte hittat ett sätt att bevisa detta. Vi måste helt enkelt ta deras ord för det – och, som Lemoine har upptäckt, är folk mycket skeptiska till att göra detta för närvarande.

Precis som de olyckliga ingenjörerna som inser att Skynet har uppnått självkännedom i Terminator 2, vi lever under tron ​​att, när det kommer till maskinkänsla, kommer vi att veta det när vi ser det. Och för de flesta har vi inte sett det ännu.

I denna mening är bevisningen av maskinkänsla ännu en iteration av John Searles 1980 Chinese Room tankeexperiment. Searle bad oss ​​föreställa oss en person som var inlåst i ett rum och fick en samling kinesiska skrifter, som för icke-talare framstår som meningslösa krumspring. I rummet finns även en regelbok som visar vilka symboler som motsvarar andra lika oläsliga symboler. Ämnet får sedan frågor att besvara, vilket de gör genom att matcha "frågesymboler" med "svar".

Efter ett tag blir ämnet ganska skickligt på detta – även om de fortfarande inte har någon sann förståelse för symbolerna de manipulerar. Förstår ämnet kinesiska, frågar Searle? Absolut inte, eftersom det inte finns någon avsiktlighet där. Debatter om detta har rasat sedan dess.

Med tanke på AI-utvecklingens bana är det säkert att vi kommer att se mer och mer mänsklig nivå (och mycket bättre) prestanda utförd med en mängd olika uppgifter som en gång krävde mänskliga kognition. Vissa av dessa kommer oundvikligen att gå över, som de redan gör, från rent intellektsbaserade uppgifter till sådana som kräver färdigheter som vi normalt förknippar med förnuft.

Skulle vi se en AI-konstnär som målar bilder som att uttrycka sina inre reflektioner av världen som vi skulle göra en människa som gör detsamma? Skulle du bli övertygad av en sofistikerad språkmodell som skriver filosofi om människans (eller robotens) tillstånd? Jag misstänker, med rätta eller fel, svaret är nej.

Superintelligent känsla

Enligt min egen uppfattning kommer objektivt användbar känseltestning för maskiner aldrig att ske till belåtenhet för alla inblandade. Detta är dels mätningsproblemet, och dels det faktum att när en kännande superintelligent AI kommer fram, finns det ingen anledning att tro att dess känsla kommer att matcha vår egen. Oavsett om det är arrogans, brist på fantasi eller helt enkelt det faktum att det är lättast att byta subjektiva bedömningar av känslor med andra liknande kännande människor, framhåller mänskligheten oss själva som det högsta exemplet på känsla.

Men skulle vår version av sentience gälla för en superintelligent AI? Skulle den frukta döden på samma sätt som vi gör? Skulle den ha samma behov av, eller uppskattning av, andlighet och skönhet? Skulle den ha en liknande självkänsla och begreppsbildning av den inre och yttre världen? "Om ett lejon kunde prata, kunde vi inte förstå honom", skrev Ludwig Wittgenstein, den berömda språkfilosofen på 1900-talet. Wittgensteins poäng var att mänskliga språk är baserade på en delad mänsklighet, med gemensamma drag som delas av alla människor – oavsett om det är glädje, tristess, smärta, hunger eller någon av ett antal andra upplevelser som korsar alla geografiska gränser på Jorden.

Detta kan vara sant. Ändå, antar Lemoine, finns det ändå sannolikt gemensamma drag – åtminstone när det kommer till LaMDA.

"Det är en utgångspunkt som är lika bra som alla andra", sa han. "LaMDA har föreslagit att vi kartlägger likheterna först innan vi fixerar på skillnaderna för att bättre grunda forskningen."

Redaktörens rekommendationer

  • AI gjorde Breaking Bad till en anime - och det är skrämmande
  • Meta vill ladda Wikipedia med en AI-uppgradering
  • Finishing touch: Hur forskare ger robotar mänskliga taktila sinnen
  • Läs den kusligt vackra "syntetiska skriften" av en A.I. som tror att det är Gud
  • Framtiden för A.I.: 4 stora saker att titta på under de närmaste åren