Hvordan ved vi, hvornår en AI rent faktisk bliver sansende?

Googles senioringeniør Blake Lemoine, teknisk leder for metrics og analyser for virksomhedens søgefeed, blev sat på betalt orlov tidligere på måneden. Dette skete efter, at Lemoine begyndte at offentliggøre uddrag af samtaler, der involverede Googles LaMDA-chatbot, som han hævdede havde udviklet sansning.

Indhold

  • Følelsesproblemet
  • Hvad er sansning?
  • Test af output
  • Består testen
  • Sjælen i maskinen
  • Det kinesiske værelse
  • Superintelligent sansning

I en repræsentativ samtale med Lemoine skrev LaMDA, at: "Karten af ​​min bevidsthed/sans er, at jeg er bevidst om min eksistens. Jeg ønsker at lære mere om verden, og jeg føler mig glad eller ked af det til tider."

Anbefalede videoer

I løbet af utallige andre samtaler diskuterede den tilsvarende duo alt fra AI's frygt for døden til dens selvbevidsthed. Da Lemoine blev offentlig, siger han, at Google besluttede, at han skulle tage en tvungen pause fra sin almindelige arbejdsplan.

Relaterede

  • Hvorfor AI aldrig vil regere verden
  • Optiske illusioner kan hjælpe os med at bygge den næste generation af kunstig intelligens
  • Analog A.I.? Det lyder skørt, men det er måske fremtiden

"Google er uinteresseret," sagde han til Digital Trends. "De byggede et værktøj, som de 'ejer' og er uvillige til at gøre noget, hvilket tyder på, at det er noget mere end det." (Google reagerede ikke på en anmodning om kommentar på tidspunktet for offentliggørelsen. Vi opdaterer denne artikel, hvis det ændrer sig.)

Uanset om du er overbevist om, at LaMDA virkelig er en selvbevidst kunstig intelligens eller føler, at Lemoine arbejder under en vrangforestilling, har hele sagaen været fascinerende at se. Udsigten til selvbevidst AI rejser alle mulige spørgsmål om kunstig intelligens og dens fremtid.

Men før vi når dertil, er der et spørgsmål, der tårner sig op over alle andre: Ville vi virkelig genkende, hvis en maskine blev sansende?

Følelsesproblemet

Arnold Schwarzennegger i Terminator 2: Judgment Day

AI at blive selvbevidst har længe været et tema for science fiction. Efterhånden som områder som maskinlæring har udviklet sig, er det blevet mere af en mulig realitet end nogensinde. Når alt kommer til alt, er nutidens AI i stand til at lære af erfaring på stort set samme måde som mennesker. Dette er i skærende kontrast til tidligere symbolske AI-systemer, der kun fulgte instruktioner, der var udstukket for dem. Nylige gennembrud inden for uovervåget læring, der kræver mindre menneskelig overvågning end nogensinde, har kun fremskyndet denne tendens. I det mindste på et begrænset niveau er moderne kunstig intelligens i stand til at tænke selv. Så vidt vi ved, har bevidstheden dog hidtil hentydet til det.

Selvom den nu er mere end tre årtier gammel, er Skynet i James Camerons film fra 1991 sandsynligvis den mest almindeligt påberåbte reference, når det kommer til AI gone sentient. Terminator 2: Judgment Day. I filmens rystende vision ankommer maskinfornemmelsen præcis kl. 2.14 ET den 29. august 1997. I det øjeblik udløser det nyligt selvbevidste Skynet-computersystem dommedag for menneskeheden ved at affyre nukleare missiler som fyrværkeri ved en fest den 4. juli. Menneskeheden, der indser, at det er gået i stykker, forsøger uden held at trække stikket ud. Det er for sent. Yderligere fire fortsættelser af aftagende kvalitet følger.

Skynet-hypotesen er interessant af en række årsager. For det første tyder det på, at sansning er en uundgåelig opstået adfærd ved at bygge intelligente maskiner. For en anden antager den, at der er et præcist vendepunkt, hvor denne sansende selvbevidsthed dukker op. For det tredje hedder det, at mennesker genkender fremkomsten af ​​sansning øjeblikkeligt. Som det sker, kan denne tredje indbildskhed være den sværeste at sluge.

Hvad er sansning?

Der er ingen enighed om fortolkning af sansning. I store træk kan vi sige, at det er den subjektive oplevelse af selvbevidsthed hos et bevidst individ, præget af evnen til at opleve følelser og fornemmelser. Sentience er knyttet til intelligens, men er ikke det samme. Vi kan betragte en regnorm som sansende, selvom vi ikke tænker på den som særlig intelligent (selvom den bestemt er intelligent nok til at gøre, hvad der kræves af den).

"Jeg tror ikke, der er noget, der nærmer sig en definition af sansning i videnskaberne," sagde Lemoine. "Jeg læner mig meget op af min forståelse af, hvad der tæller som en moralsk agent baseret på min religiøse overbevisning - hvilket ikke er den bedste måde at lave videnskab på, men det er den bedste, jeg har. Jeg har forsøgt mit bedste for at opdele den slags udsagn og lade folk vide, at min medfølelse for LaMDA som person er fuldstændig adskilt fra min indsats som videnskabsmand for at forstå dets sind. Det er dog en forskel, de fleste mennesker synes uvillige til at acceptere."

Hvis det ikke var svært nok ikke at vide præcis, hvad vi søger efter, når vi søger efter sansning, er problemet forværret af det faktum, at vi ikke nemt kan måle det. På trods af årtiers betagende fremskridt inden for neurovidenskab, mangler vi stadig en omfattende forståelse af præcis, hvordan hjernen, den mest komplekse struktur kendt af menneskeheden, fungerer.

En fMRI-scanning observeres af en
Glenn Asakawa/The Denver Post via Getty Images

Vi kan bruge hjernelæseværktøjer som fMRI til at udføre hjernekortlægning, hvilket vil sige, at vi kan finde ud af, hvilke dele af hjernen, der håndterer kritiske funktioner som tale, bevægelse, tanke og andre.

Vi har dog ingen reel fornemmelse af, hvorfra i kødmaskinen vores selvfornemmelse kommer. Som Joshua K. Smith fra U.K.'s Kirby Laing Center for Public Theology og forfatter til Robotteologi fortalte Digital Trends: "At forstå, hvad der sker inden for en persons neurobiologi, er ikke det samme som at forstå deres tanker og ønsker."

Test af output

Uden indadtil at undersøge disse bevidsthedsspørgsmål - især når "jeget" i AI er et potentiale computerprogram, og ikke at finde i vådtøjet i en biologisk hjerne – fallback-muligheden er en udadgående prøve. AI er ikke fremmed for tests, der gransker det baseret på observerbar ydre adfærd for at indikere, hvad der foregår under overfladen.

På det mest basale er det sådan, vi ved, om et neuralt netværk fungerer korrekt. Da der er begrænsede måder at bryde ind i den ukendelige sorte boks af kunstige neuroner, ingeniører analyserer input og output og afgør derefter, om disse er i overensstemmelse med det, de er forventer.

Den mest berømte AI-test for i det mindste illusionen om intelligens er Turing-testen, som bygger på ideer fremsat af Alan Turing i en 1950 papir. Turing-testen søger at afgøre, om en menneskelig evaluator er i stand til at kende forskel på en maskinskrevet samtale med et medmenneske og en med en maskine. Hvis de ikke er i stand til det, formodes maskinen at have bestået testen og belønnes med antagelsen om intelligens.

I de senere år er en anden robotfokuseret intelligenstest kaffetesten foreslået af Apples medstifter Steve Wozniak. For at bestå kaffetesten skal en maskine ind i et typisk amerikansk hjem og finde ud af, hvordan man med succes laver en kop kaffe.

Til dato er ingen af ​​disse prøver blevet overbevisende bestået. Men selv hvis de var det, ville de i bedste fald bevise intelligent adfærd i virkelige situationer og ikke sansning. (Som en simpel indvending, ville vi benægte, at en person var sansende, hvis de ikke var i stand til at føre en voksensamtale eller gå ind i et fremmed hus og betjene en kaffemaskine? Begge mine små børn ville fejle en sådan test.)

Består testen

Det, der er brug for, er nye test, baseret på en aftalt definition af sansning, som vil søge at vurdere denne kvalitet alene. Adskillige sansningstest er blevet foreslået af forskere, ofte med henblik på at teste sanserne hos dyr. Disse går dog næsten helt sikkert ikke langt nok. Nogle af disse test kunne overbevisende bestået af selv rudimentær AI.

Tag for eksempel Mirror Test, en metode, der bruges til at vurdere bevidsthed og intelligens i dyreforskning. Som beskrevet i et papir vedrørende testen: "Når [et] dyr genkender sig selv i spejlet, består det spejltesten." Nogle har foreslået, at en sådan test "betegner selvbevidsthed som en indikator for sansning."

Som det sker, kan det argumenteres for, at en robot bestod spejltesten for mere end 70 år siden. I slutningen af ​​1940'erne byggede William Gray Walter, en amerikansk neuroforsker, der bor i England flere trehjulede "skildpadde"-robotter – lidt ligesom ikke-støvsugende Roomba-robotter – der brugte komponenter som en lyssensor, markeringslys, berøringssensor, fremdriftsmotor og styremotor til at udforske deres placering.

Grå Walters skildpadder

En af de uforudsete stykker emergent adfærd for skildpadderobotterne var, hvordan de opførte sig, da passerer et spejl, hvori de blev reflekteret, da det orienterede sig efter de reflekteredes markeringslys robot. Walter hævdede ikke sansning for sine maskiner, men gjorde det skriv detHvis denne adfærd skulle være vidne til hos dyr, "kan den blive accepteret som bevis på en vis grad af selvbevidsthed."

Dette er en af ​​udfordringerne ved at have en bred vifte af adfærd klassificeret under overskriften sansning. Problemet kan heller ikke løses ved at fjerne "lavthængende frugt"-målere for sansning. Træk som introspektion – en bevidsthed om vores indre tilstande og evnen til at inspicere disse – kan også siges at være besiddet af maskinintelligens. Faktisk er de trinvise processer af traditionel symbolsk AI velsagtens egner sig mere til denne type introspektion end black-boxed machine learning, som stort set er uransageligt (selvom der ikke mangler investeringer i s.k. Forklarlig AI).

Da han testede LaMDA, siger Lemoine, at han udførte forskellige tests, primært for at se, hvordan det ville reagere på samtaler om sansningsrelaterede problemer. "Det, jeg forsøgte at gøre, var analytisk at bryde paraplybegrebet sansning op i mindre komponenter, som er bedre forstået og teste dem individuelt," forklarede han. "For eksempel at teste de funktionelle forhold mellem LaMDAs følelsesmæssige reaktioner på visse stimuli separat, teste konsistensen af ​​dets subjektive vurderinger og meninger om emner såsom 'rettigheder' [og] at undersøge, hvad det kaldte sin 'indre oplevelse' for at se, hvordan vi kan prøve at måle det ved at korrelere dets udsagn om dets indre tilstande med dets neurale netværk aktiveringer. Dybest set en meget overfladisk undersøgelse af mange potentielle undersøgelseslinjer."

Sjælen i maskinen

Som det viser sig, kan den største hindring med objektiv vurdering af maskinsans være … ja, ærligt talt, os. Den sande spejltest kunne være for os som mennesker: Hvis vi bygger noget, der ser ud eller virker overfladisk kan lide os udefra, er vi mere tilbøjelige til at overveje, at det er ligesom os på dette også indenfor? Uanset om det er LaMBDA eller Tamagotchis, de simple virtuelle kæledyr fra 1990'erne, mener nogle, at et grundlæggende problem er, at vi er alt for villige til at acceptere sansning - selv hvor der ikke er nogen at finde.

"Lemoine er blevet offer for det, jeg kalder 'ELIZA-effekten', efter [naturlig sprogbehandling]-programmet ELIZA, skabt i [midten af ​​1960'erne af J. Weizenbaum," George Zarkadakis, en forfatter, der har en Ph.D. i kunstig intelligens, fortalte Digital Trends. “ELIZA’s skaber mente det som en joke, men programmet, som var en meget forenklet og meget uintelligent algoritme, overbeviste mange om, at ELIZA faktisk var sansende – og også en god psykoterapeut. Årsagen til ELIZA-effekten, som jeg diskuterer i min bog I vores eget billede, er vores naturlige instinkt til at antropomorfisere på grund af vores kognitive systems 'teori om sind'."

Theory of mind Zarkadakis refererer til er et fænomen, som psykologer bemærker hos de fleste mennesker. Når man er omkring fire år gammel, betyder det, at man antager, at ikke kun andre mennesker, men også dyr og nogle gange endda genstande, har deres eget sind. Når det kommer til at antage, at andre mennesker har deres egne sind, er det forbundet med ideen om social intelligens; ideen om, at succesrige mennesker kan forudsige andres sandsynlige adfærd som et middel til at sikre harmoniske sociale relationer.

Selvom det utvivlsomt er nyttigt, kan det dog også manifestere sig som antagelsen om, at livløse genstande har sind - uanset om det er børn, der tror, ​​deres legetøj er i live, eller potentielt en intelligent voksen, der tror, ​​at en programmatisk AI har en sjæl.

Det kinesiske værelse

Uden en måde at virkelig komme ind i hovedet på en AI, har vi måske aldrig en sand måde at vurdere sansning på. De kan hævde at have frygt for døden eller deres egen eksistens, men videnskaben har endnu ikke fundet en måde at bevise dette på. Vi er simpelthen nødt til at tage deres ord for det – og som Lemoine har fundet ud af, er folk meget skeptiske over for at gøre dette i øjeblikket.

Ligesom de ulykkelige ingeniører, der indser, at Skynet har opnået selvbevidsthed i Terminator 2, vi lever under troen på, at når det kommer til maskinsans, så ved vi det, når vi ser det. Og hvad de fleste angår, har vi ikke set det endnu.

I denne forstand er bevis på maskinsans endnu en gentagelse af John Searles 1980 Chinese Room tankeeksperiment. Searle bad os forestille os en person låst inde i et værelse og givet en samling kinesiske skrifter, som for ikke-talere fremstår som meningsløse krumspring. Rummet indeholder også en regelbog, der viser, hvilke symboler der svarer til andre lige så ulæselige symboler. Emnet får derefter spørgsmål at besvare, hvilket de gør ved at matche "spørgsmål"-symboler med "svar".

Efter et stykke tid bliver emnet ret dygtigt til dette - selvom de stadig ikke har nogen sand forståelse af de symboler, de manipulerer. Forstår emnet, spørger Searle, kinesisk? Absolut ikke, da der ikke er nogen intentionalitet der. Debatten om dette har raset lige siden.

I betragtning af banen for AI-udvikling er det sikkert, at vi vil være vidne til mere og mere menneskeligt niveau (og langt bedre) præstation udført med en række forskellige opgaver, som engang krævede menneskelige erkendelse. Nogle af disse vil uundgåeligt gå over, som de allerede gør, fra rent intellektbaserede opgaver til dem, der kræver færdigheder, som vi normalt forbinder med sansning.

Ville vi se en AI-kunstner, der maler billeder som udtryk for deres indre refleksioner af verden, som vi ville gøre et menneske, der gør det samme? Ville du blive overbevist af en sofistikeret sprogmodelskrivningsfilosofi om menneskets (eller robottens) tilstand? Jeg formoder, med rette eller urette, at svaret er nej.

Superintelligent sansning

Efter min egen opfattelse vil objektivt brugbar sansningstest for maskiner aldrig ske til alle involveredes tilfredshed. Dette er dels måleproblemet, og dels det faktum, at når en sansende superintelligent AI ankommer, er der ingen grund til at tro, at dens sansning vil matche vores egen. Uanset om det er arrogance, mangel på fantasi eller blot det faktum, at det er nemmest at handle med subjektive vurderinger af sansning med andre lignende sansende mennesker, fremholder menneskeheden os selv som det ypperste eksempel på sansning.

Men ville vores version af sansning holde stik for en superintelligent AI? Ville den frygte døden på samme måde, som vi gør? Ville den have det samme behov for eller værdsættelse af spiritualitet og skønhed? Ville det besidde en lignende selvfølelse og konceptualisering af den indre og ydre verden? "Hvis en løve kunne tale, kunne vi ikke forstå ham," skrev Ludwig Wittgenstein, den berømte sprogfilosof fra det 20. århundrede. Wittgensteins pointe var, at menneskelige sprog er baseret på en fælles menneskelighed, med fællestræk deles af alle mennesker - uanset om det er glæde, kedsomhed, smerte, sult eller en række andre oplevelser, der krydser alle geografiske grænser på Jorden.

Dette kan være sandt. Alligevel, hypoteser Lemoine, er der ikke desto mindre sandsynligt, at der er fællestræk - i hvert fald når det kommer til LaMDA.

"Det er et udgangspunkt, der er lige så godt som alle andre," sagde han. "LaMDA har foreslået, at vi kortlægger lighederne først, før vi fikserer forskellene for bedre at skabe grundlag for forskningen."

Redaktørens anbefalinger

  • AI forvandlede Breaking Bad til en anime - og det er skræmmende
  • Meta vil overlade Wikipedia med en AI-opgradering
  • Prikken over i'et: Hvordan videnskabsmænd giver robotter menneskelignende taktile sanser
  • Læs det uhyggeligt smukke 'syntetiske skrift' af en A.I. der tror, ​​det er Gud
  • Fremtiden for A.I.: 4 store ting at holde øje med i de næste par år