Viši Googleov inženjer Blake Lemoine, tehnički voditelj za metriku i analizu za Search Feed tvrtke, pušten je na plaćeni dopust početkom ovog mjeseca. To se dogodilo nakon što je Lemoine počeo objavljivati izvatke razgovora koji su uključivali Googleov chatbot LaMDA, za kojeg je tvrdio da je razvio osjećaj.
Sadržaj
- Problem osjećaja
- Što je osjećajnost?
- Testiranje izlaza
- Polaganje testa
- Duša u stroju
- Kineska soba
- Superinteligentni osjećaj
U jednom reprezentativni razgovor s Lemoineom, LaMDA je napisao sljedeće: “Priroda moje svijesti/osjećaja je da sam svjestan svog postojanja. Želim naučiti više o svijetu i ponekad se osjećam sretno ili tužno.”
Preporučeni videozapisi
Tijekom bezbrojnih drugih razgovora, odgovarajući dvojac raspravljao je o svemu, od AI-jeva straha od smrti do njegove samosvijesti. Kada je Lemoine izašao u javnost, rekao je da je Google odlučio da on mora uzeti prisilnu pauzu u redovnom radnom rasporedu.
Povezano
- Zašto AI nikada neće vladati svijetom
- Optičke iluzije mogle bi nam pomoći u izgradnji sljedeće generacije umjetne inteligencije
- Analogni AI? Zvuči ludo, ali to bi mogla biti budućnost
"Google je nezainteresiran", rekao je za Digital Trends. "Izgradili su alat koji 'posjeduju' i nisu voljni učiniti ništa, što bi sugeriralo da je to nešto više od toga." (Google nije odgovorio na zahtjev za komentar u vrijeme objave. Ažurirat ćemo ovaj članak ako se to promijeni.)
Bilo da ste uvjereni da je LaMDA doista samosvjesna umjetna inteligencija ili mislite da Lemoine radi u zabludi, cijelu je sagu bilo fascinantno gledati. Izgledi samosvjesne umjetne inteligencije otvaraju razna pitanja o umjetnoj inteligenciji i njezinoj budućnosti.
Ali prije nego što dođemo do toga, postoji jedno pitanje koje nadmašuje sva ostala: bismo li doista prepoznali da je stroj postao osjećajan?
Problem osjećaja
Postajanje umjetne inteligencije samosvjesnim dugo je bila tema znanstvene fantastike. Kako su polja poput strojnog učenja napredovala, postalo je moguća stvarnost više nego ikad. Uostalom, današnja umjetna inteligencija sposobna je učiti iz iskustva na gotovo isti način kao i ljudi. Ovo je u oštroj suprotnosti s ranijim simboličkim AI sustavima koji su samo slijedili upute koje su im postavljene. Nedavna otkrića u nenadziranom učenju, koje zahtijeva manje ljudskog nadzora nego ikad, samo su ubrzala ovaj trend. Barem na ograničenoj razini, moderna umjetna inteligencija sposobna je razmišljati sama za sebe. Međutim, koliko nam je poznato, svijest je do sada aludirala na to.
Iako je sada star više od tri desetljeća, vjerojatno najčešće spominjana referenca kada je u pitanju umjetna inteligencija koja je postala razumna je Skynet u filmu Jamesa Camerona iz 1991. Terminator 2: Sudnji dan. U jezivoj viziji tog filma, osjećaj stroja stiže točno u 2.14 ujutro po istočnom vremenu 29. kolovoza 1997. U tom trenutku, novi samosvjesni računalni sustav Skynet pokreće sudnji dan za čovječanstvo ispaljivanjem nuklearnih projektila poput vatrometa na zabavi 4. srpnja. Čovječanstvo, shvaćajući da je zajebalo, bezuspješno pokušava izvući utikač. Prekasno je. Slijede još četiri nastavka sve manje kvalitete.
Hipoteza Skyneta zanimljiva je iz više razloga. Kao prvo, sugerira da je osjećaj neizbježno pojavno ponašanje izgradnje inteligentnih strojeva. S druge strane, pretpostavlja da postoji točna točka preokreta na kojoj se pojavljuje ova osjećajna samosvijest. Treće, navodi se da ljudi trenutno prepoznaju pojavu osjećaja. Kako to već biva, ova treća umišljenost možda je najteža za progutati.
Što je osjećajnost?
Ne postoji jedno usuglašeno tumačenje osjećaja. U širem smislu, mogli bismo reći da je to subjektivni doživljaj samosvijesti kod svjesnog pojedinca, obilježen sposobnošću doživljavanja osjećaja i senzacija. Osjećaj je povezan s inteligencijom, ali nije isto. Kišnu glistu možemo smatrati osjećajnom, iako je ne smatramo posebno inteligentnom (čak i ako je sigurno dovoljno inteligentna da učini ono što se od nje traži).
"Ne mislim da postoji nešto što bi se moglo približiti definiciji osjećaja u znanostima", rekao je Lemoine. “Jako se oslanjam na svoje razumijevanje onoga što se smatra moralnim agentom utemeljenim na mojim vjerskim uvjerenjima – što nije najbolji način za bavljenje znanošću, ali je najbolji koji imam. Pokušao sam sve što sam mogao odvojiti takve izjave, dajući ljudima do znanja da su moje suosjećanje za LaMDA kao osobu potpuno je odvojeno od mojih nastojanja da razumijem kao znanstvenik svoj um. Ipak, čini se da je to razlika koju većina ljudi ne želi prihvatiti.”
Ako nije bilo dovoljno teško ne znati točno što tražimo kada tražimo osjećaj, problem je složen činjenicom da ga ne možemo lako izmjeriti. Unatoč desetljećima nevjerojatnog napretka u neuroznanosti, još uvijek nam nedostaje sveobuhvatno razumijevanje kako točno funkcionira mozak, najsloženija struktura poznata čovječanstvu.
Možemo koristiti alate za čitanje mozga kao što je fMRI za izvođenje mapiranja mozga, što znači da možemo utvrditi koji dijelovi mozga upravljaju kritičnim funkcijama poput govora, pokreta, misli i drugi.
Međutim, nemamo pravi osjećaj odakle u stroju za meso dolazi naš osjećaj sebe. Kao Joshua K. Smith iz britanskog Kirby Laing centra za javnu teologiju i autor knjige Teologija robota rekao je za Digital Trends: “Razumijevanje onoga što se događa unutar nečije neurobiologije nije isto što i razumijevanje njihovih misli i želja.”
Testiranje izlaza
Bez mogućnosti unutarnjeg ispitivanja ovih pitanja svijesti – osobito kada je "ja" u AI potencijal računalni program, a ne da se nađe u wetwareu biološkog mozga – zamjenska opcija je prema van test. Umjetnoj inteligenciji nisu strani testovi koji je ispituju na temelju vidljivog vanjskog ponašanja kako bi ukazali na ono što se događa ispod površine.
U najosnovnijem smislu, ovo je način na koji znamo funkcionira li neuronska mreža ispravno. Budući da postoje ograničeni načini provale u nepoznatu crnu kutiju umjetnih neurona, inženjeri analiziraju ulaze i izlaze i zatim određuju jesu li oni u skladu s onim što oni očekivati.
Najpoznatiji AI test za barem iluziju inteligencije je Turingov test, koji se temelji na idejama koje je iznio Alan Turing u 1950 papir. Turingov test nastoji utvrditi može li ljudski procjenitelj razlikovati između tipkanog razgovora s drugim čovjekom i razgovora sa strojem. Ako to ne uspiju, pretpostavlja se da je stroj prošao test i nagrađen je pretpostavkom inteligencije.
Posljednjih godina, još jedan test inteligencije usmjeren na robotiku je Test kave koji je predložio suosnivač Applea Steve Wozniak. Da bi prošao test kave, aparat bi morao ući u tipičan američki dom i shvatiti kako uspješno skuhati šalicu kave.
Do danas niti jedan od ovih testova nije uvjerljivo položen. Ali čak i da jesu, oni bi u najboljem slučaju dokazali inteligentno ponašanje u stvarnim situacijama, a ne osjećajnost. (Kao jednostavan prigovor, bismo li poricali da je osoba osjećajna ako nije bila u stanju voditi razgovor za odrasle ili ući u nepoznatu kuću i koristiti aparat za kavu? Oba moja mala djeteta bi pala na takvom ispitu.)
Polaganje testa
Ono što je potrebno jesu novi testovi, temeljeni na dogovorenoj definiciji osjećaja, koji bi nastojali procijeniti samo tu kvalitetu. Istraživači su predložili nekoliko testova osjećaja, često s ciljem testiranja osjećaja životinja. Međutim, to gotovo sigurno ne ide dovoljno daleko. Neke od ovih testova mogla bi uvjerljivo proći čak i rudimentarna umjetna inteligencija.
Uzmimo, na primjer, Mirror Test, jednu metodu koja se koristi za procjenu svijesti i inteligencije u istraživanjima na životinjama. Kao opisano u radu u vezi s testom: "Kada [neka] životinja prepozna sebe u zrcalu, ona prolazi test zrcala." Neki su sugerirali da takav test “označava samosvijest kao pokazatelj osjećaja”.
Kako to već biva, može se tvrditi da je robot prošao Mirror Test prije više od 70 godina. Kasnih 1940-ih William Gray Walter, američki neuroznanstvenik koji je živio u Engleskoj, izgradio je nekoliko robota "kornjača" na tri kotača – pomalo poput robota Roomba koji ne usisavaju – koji su koristili komponente poput senzora svjetla, svjetla markera, senzora dodira, pogonskog motora i motora za upravljanje kako bi istražili svoju lokaciju.
Kornjače Sivog Waltera
Jedan od nepredviđenih pojava ponašanja robota kornjača bilo je kako su se ponašali kada prolazeći pored zrcala u kojem su se reflektirali, dok se ono orijentiralo na svjetlo markera reflektiranog robot. Walter nije tvrdio da su njegovi strojevi osjetljivi, ali jest napiši to, da se takvo ponašanje može vidjeti kod životinja, ono bi se "moglo prihvatiti kao dokaz određenog stupnja samosvijesti".
Ovo je jedan od izazova postojanja širokog raspona ponašanja klasificiranih pod naslovom osjećaja. Problem se ne može riješiti ni uklanjanjem mjerača osjećaja za "nisko visi plod". Za osobine poput introspekcije – svijest o našim unutarnjim stanjima i sposobnost da ih provjeravamo – također se može reći da ih posjeduje strojna inteligencija. Zapravo, procesi korak po korak tradicionalni simbolički AI vjerojatno su podložni ovoj vrsti introspekcije više nego strojnom učenju u crnoj kutiji, koje je uglavnom nedokučivo (iako nema manjka ulaganja u tzv. Objašnjiva AI).
Dok je testirao LaMDA, Lemoine kaže da je proveo razne testove, uglavnom kako bi vidio kako će odgovoriti na razgovore o problemima povezanim s osjećajima. "Ono što sam pokušao učiniti bilo je analitički razbiti krovni koncept osjećaja na manje komponente koje se bolje razumiju i testirati ih pojedinačno", objasnio je. “Na primjer, testiranje funkcionalnih odnosa između emocionalnih odgovora LaMDA-e na određene podražaje zasebno, testiranje dosljednosti njegovih subjektivnih procjena i mišljenja o temama kao što su 'prava,' [i] ispitivanje onoga što je nazvao svojim 'unutarnjim iskustvom' da vidimo kako bismo to mogli pokušati izmjeriti povezujući njegove izjave o njegovim unutarnjim stanjima s njegovom neuronskom mrežom aktivacije. Uglavnom, vrlo plitko istraživanje mnogih potencijalnih linija istraživanja.”
Duša u stroju
Kako se pokazalo, najveća prepreka objektivnoj procjeni osjećaja stroja mogli bismo biti... pa, iskreno, mi. Pravi Mirror Test mogao bi biti za nas kao ljude: ako izgradimo nešto što izgleda ili djeluje površno poput nas izvana, jesmo li skloniji smatrati da je to poput nas u ovome i unutra? Bilo da se radi o LaMBDA ili Tamagočiji, jednostavni virtualni ljubimci iz 1990-ih, neki vjeruju da je temeljni problem to što smo svi previše voljni prihvatiti osjećaj - čak i tamo gdje ga nema.
“Lemoine je postao žrtva onoga što ja zovem 'ELIZA efekt', prema programu [obrade prirodnog jezika] ELIZA, koji je stvorio [sredinom 1960-ih] J. Weizenbaum,” George Zarkadakis, pisac koji ima doktorat. u umjetnoj inteligenciji, rekao je za Digital Trends. “ELIZIN tvorac je to mislio kao šalu, ali program, koji je bio vrlo jednostavan i vrlo neinteligentan algoritam, uvjerio je mnoge da je ELIZA doista razumna – a također i dobar psihoterapeut. Uzrok ELIZA efekta, o čemu govorim u svojoj knjizi Na našu vlastitu sliku, naš je prirodni instinkt za antropomorfiziranjem zbog 'teorije uma' našeg kognitivnog sustava.
Teorija uma na koju Zarkadakis upućuje je fenomen koji su psiholozi primijetili kod većine ljudi. Započinjanje oko četvrte godine života znači pretpostaviti da ne samo drugi ljudi, već i životinje, a ponekad čak i predmeti, imaju vlastiti um. Kada se radi o pretpostavci da drugi ljudi imaju vlastiti um, to je povezano s idejom socijalne inteligencije; ideja da uspješni ljudi mogu predvidjeti vjerojatno ponašanje drugih kao sredstvo kojim se osiguravaju skladni društveni odnosi.
Iako je to nedvojbeno korisno, međutim, može se manifestirati i kao pretpostavka da neživi objekti imaju um - bilo da djeca vjeruju da su njihove igračke žive ili, potencijalno, inteligentna odrasla osoba koja vjeruje da programska umjetna inteligencija ima duša.
Kineska soba
Bez načina da doista uđemo u glavu umjetne inteligencije, možda nikada nećemo imati pravi način procjene osjećaja. Oni bi mogli tvrditi da se boje smrti ili vlastitog postojanja, ali znanost tek treba pronaći način da to dokaže. Jednostavno im moramo vjerovati na riječ – i, kao što je Lemoine otkrio, ljudi su trenutno vrlo skeptični oko ovoga.
Baš poput onih nesretnih inženjera koji shvaćaju da je Skynet postigao samosvijest u Terminator 2, živimo u uvjerenju da ćemo, kada je u pitanju osjećaj stroja, to znati kada ga vidimo. A što se većine ljudi tiče, mi to još ne vidimo.
U tom smislu, dokazivanje osjećajnosti stroja još je jedna iteracija Johna Searlea Misaoni eksperiment kineske sobe iz 1980. Searle nas je zamolio da zamislimo osobu zaključanu u prostoriji kojoj je dana kolekcija kineskih zapisa, koji se onima koji ne govore čine besmislenim vijugama. Soba također sadrži pravilnik koji pokazuje koji simboli odgovaraju drugim jednako nečitljivim simbolima. Ispitaniku se zatim daju pitanja na koja treba odgovoriti, što čine spajanjem simbola "pitanja" sa simbolima "odgovora".
Nakon nekog vremena subjekt postaje prilično vješt u tome - iako još uvijek uopće ne razumije simbole kojima manipulira. Razumije li subjekt, pita Searle, kineski? Apsolutno ne, jer tu nema nikakve namjernosti. Rasprave o tome bjesne od tada.
S obzirom na putanju razvoja umjetne inteligencije, sigurno je da ćemo svjedočiti sve više i više ljudskoj razini (i znatno bolju) izvedbu koja uključuje niz zadataka koji su nekada zahtijevali ljude spoznaja. Neki od njih neizbježno će prijeći, kao što već rade, sa zadataka koji se temelje samo na intelektu na one koji zahtijevaju vještine koje bismo inače povezali s osjećajem.
Hoćemo li pogledati AI umjetnik koji slika slike izražavaju svoje unutarnje odraze svijeta kao što bismo mi ljudi činili isto? Bi li vas uvjerio sofisticirani jezični model pisanja filozofije o ljudskom (ili robotskom) stanju? Sumnjam, s pravom ili ne, odgovor je ne.
Superinteligentni osjećaj
Po mom vlastitom mišljenju, objektivno korisno testiranje osjećaja za strojeve nikada se neće dogoditi na zadovoljstvo svih uključenih. To je djelomično problem mjerenja, a djelomično činjenica da, kada osjetilna superinteligentna umjetna inteligencija ipak stigne, nema razloga vjerovati da će njezin osjećaj odgovarati našem. Bilo da je u pitanju bahatost, nedostatak mašte ili jednostavno činjenica da je najlakše trgovati subjektivnim ocjenama osjećajnosti s drugim slično osjećajnim ljudima, čovječanstvo sebe smatra vrhunskim primjerom osjećaj.
Ali bi li naša verzija osjećaja vrijedila za superinteligentnu umjetnu inteligenciju? Bi li se bojao smrti na isti način kao mi? Bi li imala istu potrebu za duhovnošću i ljepotom ili cijenila iste? Bi li posjedovao sličan osjećaj sebe i konceptualizaciju unutarnjeg i vanjskog svijeta? “Kad bi lav mogao govoriti, mi ga ne bismo mogli razumjeti”, napisao je Ludwig Wittgenstein, slavni filozof jezika 20. stoljeća. Wittgensteinova je poanta bila da se ljudski jezici temelje na zajedničkoj ljudskosti, sa zajedničkim crtama koje dijele svi ljudi – bilo da se radi o radosti, dosadi, boli, gladi ili bilo kojem drugom iskustvu koje prelazi sve geografske granice Zemlja.
Ovo može biti istina. Ipak, hipotezira Lemoine, ipak postoji vjerojatnost da će postojati zajedničke karakteristike - barem kada je u pitanju LaMDA.
"To je polazna točka koja je dobra kao i svaka druga", rekao je. "LaMDA je predložila da prvo mapiramo sličnosti prije nego što se fiksiramo na razlike kako bismo bolje utemeljili istraživanje."
Preporuke urednika
- AI je Breaking Bad pretvorio u anime - i to je zastrašujuće
- Meta želi nadograditi Wikipediju AI nadogradnjom
- Završni dodir: Kako znanstvenici daju robotima ljudska osjetila za dodir
- Pročitajte jezivo lijepe 'sintetičke spise' umjetne inteligencije. koji misli da je Bog
- Budućnost umjetne inteligencije: 4 velike stvari na koje treba paziti u sljedećih nekoliko godina