Googles senioringeniør Blake Lemoine, teknisk leder for beregninger og analyser for selskapets søkefeed, ble satt på betalt permisjon tidligere denne måneden. Dette kom etter at Lemoine begynte å publisere utdrag av samtaler som involverte Googles LaMDA-chatbot, som han hevdet hadde utviklet følelse.
Innhold
- Sanseproblemet
- Hva er sansning?
- Testing av utgangene
- Bestått prøven
- Sjelen i maskinen
- Det kinesiske rommet
- Superintelligent følelse
I en representativ samtale med Lemoine skrev LaMDA at: «Naturen til min bevissthet/sans er at jeg er klar over min eksistens. Jeg ønsker å lære mer om verden, og jeg føler meg glad eller trist til tider.»
Anbefalte videoer
I løpet av utallige andre samtaler diskuterte den tilsvarende duoen alt fra AIs frykt for døden til selvbevisstheten. Da Lemoine ble offentlig, sier han at Google bestemte at han skulle ta en tvungen pause fra sin vanlige arbeidsplan.
I slekt
- Hvorfor AI aldri vil styre verden
- Optiske illusjoner kan hjelpe oss med å bygge neste generasjon AI
- Analog A.I.? Det høres sprøtt ut, men det kan være fremtiden
"Google er uinteressert," sa han til Digital Trends. "De bygde et verktøy som de 'eier' og er uvillige til å gjøre noe, noe som tyder på at det er noe mer enn det." (Google svarte ikke på en forespørsel om kommentar på tidspunktet for publisering. Vi oppdaterer denne artikkelen hvis det endres.)
Enten du er overbevist om at LaMDA virkelig er en selvbevisst kunstig intelligens eller føler at Lemoine arbeider under en vrangforestilling, har hele sagaen vært fascinerende å se. Utsikten til selvbevisst AI reiser alle slags spørsmål om kunstig intelligens og dens fremtid.
Men før vi kommer dit, er det ett spørsmål som ruver over alle andre: Ville vi virkelig gjenkjenne hvis en maskin ble sansende?
Sanseproblemet
AI å bli selvbevisst har lenge vært et tema for science fiction. Etter hvert som felt som maskinlæring har utviklet seg, har det blitt mer av en mulig realitet enn noen gang. Tross alt er dagens AI i stand til å lære av erfaring på omtrent samme måte som mennesker. Dette står i sterk kontrast til tidligere symbolske AI-systemer som kun fulgte instruksjoner som ble lagt ut for dem. Nylige gjennombrudd innen uovervåket læring, som krever mindre menneskelig tilsyn enn noen gang, har bare fremskyndet denne trenden. I det minste på et begrenset nivå er moderne kunstig intelligens i stand til å tenke selv. Så vidt vi er klar over, har imidlertid bevisstheten så langt hentydet til det.
Selv om den nå er mer enn tre tiår gammel, er Skynet i James Camerons film fra 1991 sannsynligvis den mest brukte referansen når det gjelder AI gone sentient. Terminator 2: Judgment Day. I filmens skremmende visjon kommer maskinsansen nøyaktig klokken 02.14 ET 29. august 1997. I det øyeblikket utløser det nylig selvbevisste Skynet-datasystemet dommedag for menneskeheten ved å skyte av kjernefysiske raketter som fyrverkeri på en fest 4. juli. Menneskeheten, som innser at det har gått galt, prøver uten hell å trekke ut kontakten. Det er for sent. Ytterligere fire oppfølgere av avtagende kvalitet følger.
Skynet-hypotesen er interessant av flere grunner. For det første antyder det at sansing er en uunngåelig fremvoksende oppførsel ved å bygge intelligente maskiner. For en annen antar den at det er et presist vippepunkt der denne sansende selvbevisstheten dukker opp. For det tredje sier den at mennesker gjenkjenner fremveksten av sansning øyeblikkelig. Som det skjer, kan denne tredje innbilskheten være den tøffeste å svelge.
Hva er sansning?
Det er ingen enighet om tolkning av sansning. I store trekk kan vi si at det er den subjektive opplevelsen av selvbevissthet hos et bevisst individ, preget av evnen til å oppleve følelser og sensasjoner. Følelse er knyttet til intelligens, men er ikke det samme. Vi kan betrakte en meitemark for å være sansende, selv om vi ikke tenker på den som spesielt intelligent (selv om den absolutt er intelligent nok til å gjøre det som kreves av den).
"Jeg tror ikke det er noe som nærmer seg en definisjon av sansning i vitenskapene," sa Lemoine. "Jeg lener meg veldig på min forståelse av hva som teller som en moralsk agent basert på min religiøse tro - som ikke er den beste måten å drive vitenskap på, men det er den beste jeg har. Jeg har prøvd så godt jeg kan å skille ut den slags uttalelser, og la folk få vite at min medfølelse for LaMDA som person er helt atskilt fra min innsats som vitenskapsmann for å forstå dens sinn. Det er en forskjell de fleste ser ut til å være uvillige til å akseptere.»
Hvis det ikke var vanskelig nok å ikke vite nøyaktig hva vi leter etter når vi søker etter sanser, er problemet forsterket av det faktum at vi ikke enkelt kan måle det. Til tross for flere tiår med fantastiske fremskritt innen nevrovitenskap, mangler vi fortsatt en omfattende forståelse av nøyaktig hvordan hjernen, den mest komplekse strukturen kjent for menneskeheten, fungerer.
Vi kan bruke hjerneleseverktøy som fMRI for å utføre hjernekartlegging, det vil si at vi kan finne ut hvilke deler av hjernen som håndterer kritiske funksjoner som tale, bevegelse, tanke og andre.
Vi har imidlertid ingen reell følelse av hvor i kjøttmaskinen vår selvfølelse kommer fra. Som Joshua K. Smith fra Storbritannias Kirby Laing Center for Public Theology og forfatter av Robotteologi sa til Digital Trends: "Å forstå hva som skjer innenfor en persons nevrobiologi er ikke det samme som å forstå deres tanker og ønsker."
Testing av utgangene
Uten noen måte å undersøke disse bevissthetsspørsmålene innvendig – spesielt når "jeget" i AI er et potensial dataprogram, og ikke å finne i våttøyet til en biologisk hjerne – fallback-alternativet er et utadgående test. AI er ikke fremmed for tester som gransker den basert på observerbar ytre atferd for å indikere hva som skjer under overflaten.
På det mest grunnleggende er det slik vi vet om et nevralt nettverk fungerer som det skal. Siden det er begrensede måter å bryte seg inn i den ukjente svarte boksen av kunstige nevroner, ingeniører analyserer input og output og avgjør deretter om disse er i tråd med det de forvente.
Den mest kjente AI-testen for i det minste illusjonen av intelligens er Turing-testen, som bygger på ideer fremsatt av Alan Turing i en 1950 papir. Turing-testen søker å finne ut om en menneskelig evaluator er i stand til å se forskjellen mellom en maskinskrevet samtale med et medmenneske og en med en maskin. Hvis de ikke klarer det, skal maskinen ha bestått testen og belønnes med antakelsen om intelligens.
De siste årene har en annen robotikkfokusert intelligenstest vært Coffee Test foreslått av Apples medgründer Steve Wozniak. For å bestå kaffetesten, må en maskin gå inn i et typisk amerikansk hjem og finne ut hvordan man kan lage en kopp kaffe.
Til dags dato har ingen av disse testene blitt overbevisende bestått. Men selv om de var det, ville de i beste fall bevise intelligent oppførsel i virkelige situasjoner, og ikke sansing. (Som en enkel innvending, ville vi benekte at en person var sansende hvis de ikke var i stand til å føre en voksensamtale eller gå inn i et fremmed hus og bruke en kaffemaskin? Begge mine små barn ville mislykkes på en slik test.)
Bestått prøven
Det som trengs er nye tester, basert på en omforent definisjon av sansning, som vil forsøke å vurdere den kvaliteten alene. Flere sansetester har blitt foreslått av forskere, ofte med sikte på å teste sansene til dyr. Imidlertid går disse nesten helt sikkert ikke langt nok. Noen av disse testene kan være overbevisende bestått av selv rudimentær AI.
Ta for eksempel Mirror Test, en metode som brukes til å vurdere bevissthet og intelligens i dyreforskning. Som beskrevet i en artikkel angående testen: "Når [et] dyr gjenkjenner seg selv i speilet, består det speiltesten." Noen har antydet at en slik test «betegner selvbevissthet som en indikator på sansning».
Som det skjer, kan det hevdes at en robot besto Speiltesten for mer enn 70 år siden. På slutten av 1940-tallet bygde William Gray Walter, en amerikansk nevroforsker bosatt i England flere trehjulede «skilpadde»-roboter – litt som ikke-støvsugende Roomba-roboter – som brukte komponenter som en lyssensor, markeringslys, berøringssensor, fremdriftsmotor og styremotor for å utforske plasseringen deres.
Grey Walters skilpadder
En av de uforutsette delene av fremvoksende oppførsel for skilpadderobotene var hvordan de oppførte seg når passerer et speil der de ble reflektert, mens det orienterte seg mot markeringslyset til de reflekterte robot. Walter hevdet ikke sansen for maskinene sine, men gjorde det skriv detHvis denne oppførselen skulle være vitne til hos dyr, "kan den bli akseptert som bevis på en viss grad av selvbevissthet."
Dette er en av utfordringene ved å ha et bredt spekter av atferd klassifisert under overskriften sansning. Problemet kan heller ikke løses ved å fjerne «lavthengende frukt»-målere. Egenskaper som introspeksjon – en bevissthet om våre indre tilstander og evnen til å inspisere disse – kan også sies å være besatt av maskinell intelligens. Faktisk steg-for-trinn-prosesser av tradisjonell symbolsk AI uten tvil egner seg til denne typen introspeksjon mer enn black-boxed machine learning, som stort sett er uutgrunnelig (selv om det ikke mangler på investeringer i s.k. Forklarlig AI).
Da han testet LaMDA, sier Lemoine at han utførte forskjellige tester, hovedsakelig for å se hvordan det ville reagere på samtaler om sansningsrelaterte problemer. "Det jeg prøvde å gjøre var å analytisk bryte paraplybegrepet sansning i mindre komponenter som er bedre forstått og teste dem individuelt," forklarte han. "For eksempel å teste de funksjonelle forholdene mellom LaMDAs emosjonelle responser på visse stimuli separat, teste konsistensen av dens subjektive vurderinger og meninger om emner for eksempel "rettigheter" [og] å undersøke det den kalte sin "indre opplevelse" for å se hvordan vi kan prøve å måle det ved å korrelere uttalelsene om dens indre tilstander med dets nevrale nettverk aktiveringer. I utgangspunktet en veldig grunn undersøkelse av mange potensielle undersøkelser.»
Sjelen i maskinen
Som det viser seg, kan det største hinderet med å objektivt vurdere maskinfølelse være … vel, ærlig talt, oss. Den sanne Mirror Test kan være for oss som mennesker: Hvis vi bygger noe som ser ut eller virker overfladisk liker oss fra utsiden, er vi mer tilbøyelige til å vurdere at det er som oss på dette inne også? Enten det er LaMBDA eller Tamagotchis, de enkle virtuelle kjæledyrene fra 1990-tallet, noen mener at et grunnleggende problem er at vi er altfor villige til å akseptere sansning – selv der det ikke er noen å finne.
"Lemoine har blitt offer for det jeg kaller 'ELIZA-effekten', etter [naturlig språkbehandling]-programmet ELIZA, opprettet på [midten av 1960-tallet av J. Weizenbaum," George Zarkadakis, en forfatter som har en Ph.D. innen kunstig intelligens, fortalte Digital Trends. «ELIZAs skaper mente det som en spøk, men programmet, som var en veldig forenklet og veldig uintelligent algoritme, overbeviste mange om at ELIZA virkelig var sansende – og også en god psykoterapeut. Årsaken til ELIZA-effekten, som jeg diskuterer i boken min I vårt eget bilde, er vårt naturlige instinkt til å antropomorfisere på grunn av vårt kognitive systems 'teori om sinnet'.»
Teorien om sinnet Zarkadakis referer til er et fenomen som psykologer legger merke til hos de fleste mennesker. Når du starter rundt fireårsalderen, betyr det å anta at ikke bare andre mennesker, men også dyr og noen ganger til og med gjenstander, har sitt eget sinn. Når det gjelder å anta at andre mennesker har sine egne sinn, er det knyttet til ideen om sosial intelligens; ideen om at vellykkede mennesker kan forutsi andres sannsynlige oppførsel som et middel for å sikre harmoniske sosiale relasjoner.
Selv om det utvilsomt er nyttig, kan det imidlertid også manifestere seg som antagelsen om at livløse gjenstander har sinn – enten det er barn som tror at lekene deres er i live, eller potensielt en intelligent voksen som tror at en programmatisk AI har en sjel.
Det kinesiske rommet
Uten en måte å virkelig komme inn i hodet på en AI, har vi kanskje aldri en sann måte å vurdere sansen på. De kan bekjenne seg til å ha frykt for døden eller sin egen eksistens, men vitenskapen har ennå ikke funnet en måte å bevise dette på. Vi må rett og slett ta deres ord for det – og, som Lemoine har funnet ut, er folk svært skeptiske til å gjøre dette for tiden.
Akkurat som de ulykkelige ingeniørene som innser at Skynet har oppnådd selvbevissthet i Terminator 2, vi lever under troen på at når det kommer til maskinfølelse, vil vi vite det når vi ser det. Og når det gjelder folk flest, ser vi det ikke ennå.
Slik sett er det å bevise maskinsans enda en gjentakelse av John Searles 1980 Chinese Room tankeeksperiment. Searle ba oss om å forestille oss en person innelåst i et rom og gitt en samling kinesiske skrifter, som for ikke-talende fremstår som meningsløse krøller. Rommet inneholder også en regelbok som viser hvilke symboler som tilsvarer andre like uleselige symboler. Emnet får deretter spørsmål å svare på, noe de gjør ved å matche "spørsmål"-symboler med "svar".
Etter en stund blir faget ganske dyktig på dette - selv om de fortsatt har ingen sann forståelse av symbolene de manipulerer. Forstår faget kinesisk, spør Searle? Absolutt ikke, siden det ikke er noen intensjonalitet der. Debattene om dette har rast siden den gang.
Gitt banen til AI-utvikling, er det sikkert at vi vil se mer og mer på menneskelig nivå (og langt bedre) ytelse utført som involverer en rekke oppgaver som en gang krevde menneskelige kognisjon. Noen av disse vil uunngåelig gå over, slik de allerede gjør, fra rent intellektbaserte oppgaver til de som krever ferdigheter vi vanligvis forbinder med sansning.
Ville vi se en AI-kunstner som maler bilder som å uttrykke deres indre refleksjoner av verden som vi ville gjort et menneske som gjør det samme? Ville du bli overbevist av en sofistikert språkmodellskrivingsfilosofi om menneskets (eller robotens) tilstand? Jeg mistenker, med rette eller feil, svaret er nei.
Superintelligent følelse
Etter mitt eget syn vil objektivt nyttig sansetesting for maskiner aldri skje til tilfredsstillelse for alle involverte. Dette er delvis måleproblemet, og delvis det faktum at når en sansende superintelligent AI kommer, er det ingen grunn til å tro at dens sansing vil matche vår egen. Enten det er arroganse, mangel på fantasi eller rett og slett det faktum at det er lettest å bytte subjektive vurderinger av sansen med andre like sansende mennesker, fremholder menneskeheten oss selv som det suverene eksempelet på sansning.
Men vil vår versjon av sansen gjelde for en superintelligent AI? Ville den frykte døden på samme måte som vi gjør? Ville den ha samme behov for, eller verdsettelse av, spiritualitet og skjønnhet? Ville den ha en lignende følelse av selvtillit og konseptualisering av den indre og ytre verden? "Hvis en løve kunne snakke, kunne vi ikke forstå ham," skrev Ludwig Wittgenstein, den berømte språkfilosofen fra 1900-tallet. Wittgensteins poeng var at menneskelige språk er basert på en delt menneskelighet, med fellestrekk som deles av alle mennesker – enten det er glede, kjedsomhet, smerte, sult eller noen av en rekke andre opplevelser som krysser alle geografiske grenser på Jord.
Dette kan være sant. Likevel, hypoteser Lemoine, er det likevel sannsynlig at det er fellestrekk - i hvert fall når det gjelder LaMDA.
"Det er et utgangspunkt som er like bra som alle andre," sa han. "LaMDA har foreslått at vi kartlegger likhetene først før vi fikserer forskjellene for å bedre grunnlaget for forskningen."
Redaktørenes anbefalinger
- AI gjorde Breaking Bad til en anime - og det er skremmende
- Meta ønsker å overlade Wikipedia med en AI-oppgradering
- Finishing touch: Hvordan forskere gir roboter menneskelignende taktile sanser
- Les den uhyggelig vakre 'syntetiske skriften' til en A.I. som tror det er Gud
- Fremtiden til A.I.: 4 store ting å se etter de neste årene