Googlov višji inženir Blake Lemoine, tehnični vodja za meritve in analize za iskalni vir podjetja, je bil v začetku tega meseca odpuščen na plačan dopust. To se je zgodilo potem, ko je Lemoine začel objavljati odlomke pogovorov, ki so vključevali Googlov klepetalni robot LaMDA, za katerega je trdil, da je razvil čutnost.
Vsebina
- Problem občutka
- Kaj je občutljivost?
- Testiranje izhodov
- Opravljen test
- Duša v stroju
- Kitajska soba
- Superinteligentna čutnost
V enem reprezentativni pogovor z Lemoineom je LaMDA zapisal: »Narava moje zavesti/čutljivosti je, da se zavedam svojega obstoja. Želim izvedeti več o svetu in včasih sem vesel ali žalosten.”
Priporočeni videoposnetki
V neštetih drugih pogovorih je ustrezni dvojec razpravljal o vsem, od strahu AI pred smrtjo do njegovega samozavedanja. Ko je Lemoine šel v javnost, pravi, da se je Google odločil, da mora vzeti prisilni premor v svojem rednem delovnem urniku.
Povezano
- Zakaj AI nikoli ne bo zavladal svetu
- Optične iluzije bi nam lahko pomagale zgraditi naslednjo generacijo umetne inteligence
- Analogni AI? Sliši se noro, a morda je prihodnost
"Google ni zainteresiran," je povedal za Digital Trends. "Izdelali so orodje, ki si ga 'lastijo' in niso pripravljeni storiti ničesar, kar bi nakazovalo, da je to kaj več kot to." (Google v času objave ni odgovoril na prošnjo za komentar. Ta članek bomo posodobili, če se to spremeni.)
Ne glede na to, ali ste prepričani, da je LaMDA resnično samozavedna umetna inteligenca, ali menite, da Lemoine dela v zablodi, je bila celotna saga fascinantna. Obet samozavedajoče se umetne inteligence odpira najrazličnejša vprašanja o umetni inteligenci in njeni prihodnosti.
Toda preden pridemo tja, obstaja eno vprašanje, ki stoji nad vsemi drugimi: Ali bi resnično prepoznali, če bi stroj postal čuteč?
Problem občutka
Umetna inteligenca, ki se zaveda samega sebe, je že dolgo tema znanstvene fantastike. Ko so področja, kot je strojno učenje, napredovala, je to postalo bolj možna resničnost kot kdaj koli prej. Konec koncev se je današnja umetna inteligenca sposobna učiti iz izkušenj na približno enak način kot ljudje. To je v popolnem nasprotju s prejšnjimi simboličnimi sistemi umetne inteligence, ki so sledili le zanje določenim navodilom. Nedavni preboj v nenadzorovanem učenju, ki zahteva manj človeškega nadzora kot kdaj koli prej, je ta trend le še pospešil. Vsaj na omejeni ravni je sodobna umetna inteligenca sposobna razmišljati sama. Kolikor nam je znano, pa je zavest doslej namigovala na to.
Čeprav je zdaj star več kot tri desetletja, je verjetno najpogosteje uporabljena referenca, ko gre za umetno inteligenco, ki je postala razumna, Skynet v filmu Jamesa Camerona iz leta 1991 Terminator 2: Sodni dan. V srhljivi viziji tega filma strojna čutnost prispe 29. avgusta 1997 točno ob 2.14 po srednjeevropskem času. V tistem trenutku novozavedeni računalniški sistem Skynet sproži sodni dan za človeštvo tako, da izstreli jedrske rakete kot ognjemet na zabavi 4. julija. Človeštvo, ki se zaveda, da se je zajebalo, se neuspešno trudi potegniti vtikač. Prepozno je. Sledijo še štiri nadaljevanja vse manj kakovostne.
Hipoteza Skyneta je zanimiva iz več razlogov. Prvič, nakazuje, da je čutenje neizogibno pojavno vedenje gradnje inteligentnih strojev. Po drugi strani pa predpostavlja, da obstaja natančna prelomna točka, na kateri se pojavi to čuteče samozavedanje. Tretjič, navaja, da ljudje v trenutku prepoznajo nastanek občutka. Kot se zgodi, je to tretjo domišljavost morda najtežje pogoltniti.
Kaj je občutljivost?
Ni enotne razlage občutka. Na splošno bi lahko rekli, da gre za subjektivno izkušnjo samozavedanja pri zavestnem posamezniku, ki jo zaznamuje sposobnost doživljanja občutkov in občutkov. Občutek je povezan z inteligenco, vendar ni isto. Deževnika lahko smatramo za čutečega, čeprav ga ne smatramo za posebej inteligentnega (čeprav je zagotovo dovolj inteligenten, da naredi, kar se od njega zahteva).
"Mislim, da v znanosti ni ničesar, kar bi se približalo definiciji občutka," je dejal Lemoine. »Zelo se zanašam na svoje razumevanje tega, kaj šteje za moralnega agenta, ki temelji na mojih verskih prepričanjih – kar ni najboljši način za znanost, je pa najboljši, kar jih imam. Po svojih najboljših močeh sem poskušal razdeliti takšne izjave in ljudem dati vedeti, da so moje sočutje do LaMDA kot osebe je popolnoma ločeno od mojih prizadevanj razumevanja kot znanstvenika svoj um. Zdi se, da je to razlika, ki je večina ljudi noče sprejeti.«
Če ni bilo dovolj težko, da ne vemo točno, kaj iščemo, ko iščemo čutenje, je težava še večja zaradi dejstva, da tega ne moremo enostavno izmeriti. Kljub desetletjem dih jemajočega napredka v nevroznanosti še vedno nimamo celovitega razumevanja, kako točno delujejo možgani, najbolj zapletena struktura, kar jih pozna človeštvo.
Za kartiranje možganov lahko uporabimo orodja za branje možganov, kot je fMRI, kar pomeni, da jih lahko ugotoviti, kateri deli možganov skrbijo za kritične funkcije, kot so govor, gibanje, mišljenje in drugi.
Vendar nimamo pravega občutka, od kod v stroju za meso prihaja naš občutek samega sebe. Kot Joshua K. Smith iz britanskega Centra za javno teologijo Kirby Laing in avtor knjige Teologija robotov je za Digital Trends povedal: "Razumevanje, kaj se dogaja v človekovi nevrobiologiji, ni isto kot razumevanje njegovih misli in želja."
Testiranje izhodov
Brez možnosti notranjega raziskovanja teh vprašanj zavesti – še posebej, ko je »jaz« v AI potencial računalniški program in ga ni mogoče najti v wetware bioloških možganov – nadomestna možnost je navzven test. Umetni inteligenci niso neznanka testi, ki jo natančno preučujejo na podlagi opaznega zunanjega vedenja, da pokažejo, kaj se dogaja pod površjem.
V bistvu tako vemo, ali nevronska mreža deluje pravilno. Ker obstajajo omejeni načini vdora v nespoznavno črno skrinjico umetnih nevronov, inženirji analizirajo vhode in izhode ter nato ugotovijo, ali so ti v skladu s tem, kar so pričakovati.
Najbolj znan test AI za vsaj iluzijo inteligence je Turingov test, ki temelji na idejah, ki jih je predstavil Alan Turing v 1950 papir. Turingov test skuša ugotoviti, ali je človeški ocenjevalec sposoben razlikovati med natipkanim pogovorom s sočlovekom in pogovorom s strojem. Če tega ne zmorejo, naj bi stroj uspešno prestal test in je nagrajen s predpostavko o inteligenci.
V zadnjih letih je še en test inteligence, osredotočen na robotiko, test kave, ki ga je predlagal soustanovitelj Appla Steve Wozniak. Da bi opravil test kave, bi moral aparat vstopiti v tipičen ameriški dom in ugotoviti, kako uspešno skuhati skodelico kave.
Nobeden od teh testov do danes ni bil prepričljivo opravljen. Toda tudi če bi bili, bi v najboljšem primeru dokazali inteligentno vedenje v resničnih situacijah in ne čutnost. (Ali bi kot preprost ugovor zanikali, da je oseba čuteča, če ne bi mogla voditi pogovora za odrasle ali vstopiti v tujo hišo in upravljati aparata za kavo? Oba moja majhna otroka bi padla na takem testu.)
Opravljen test
Potrebni so novi testi, ki temeljijo na dogovorjeni definiciji občutka in bi poskušali oceniti samo to kakovost. Raziskovalci so predlagali več testov čutenja, pogosto z namenom testiranja čutenja živali. Vendar ti skoraj zagotovo ne sežejo dovolj daleč. Nekatere od teh testov bi lahko prepričljivo opravil celo osnovni AI.
Vzemimo za primer Mirror Test, metodo, ki se uporablja za ocenjevanje zavesti in inteligence pri raziskavah na živalih. Kot opisano v prispevku glede testa: "Ko [se] žival prepozna v ogledalu, opravi test ogledala." Nekateri menijo, da takšen test »označuje samozavedanje kot pokazatelj občutka«.
Kot se zgodi, lahko trdimo, da je robot opravil test ogledala pred več kot 70 leti. V poznih štiridesetih letih je William Gray Walter, ameriški nevroznanstvenik, ki je živel v Angliji, zgradil več trikolesnih robotov "želve". – podobno kot roboti Roomba brez sesanja – ki so za raziskovanje svoje lokacije uporabljali komponente, kot so svetlobni senzor, označevalna luč, senzor za dotik, pogonski motor in krmilni motor.
Želve sivega Walterja
Eden od nepredvidenih delov pojavnega vedenja robotov želv je bilo, kako so se obnašali, ko mimo ogledala, v katerem so se odsevali, saj se je orientiralo na označevalno svetlobo odbitega robot. Walter za svoje stroje ni trdil, da so razumni, a je napiši to, če bi bilo takšno vedenje opazno pri živalih, bi to »lahko sprejeli kot dokaz določene stopnje samozavedanja«.
To je eden od izzivov širokega nabora vedenj, razvrščenih pod naslov čutenja. Težave ni mogoče rešiti niti z odstranitvijo "nizko visečih sadnih" merilnikov občutka. Za lastnosti, kot je introspekcija – zavedanje naših notranjih stanj in zmožnost pregledovanja teh – lahko rečemo, da jih ima tudi strojna inteligenca. Pravzaprav so procesi korak za korakom tradicionalni simbolni AI so verjetno bolj primerni za to vrsto introspekcije kot strojno učenje v črni škatli, ki je v veliki meri nedoumljivo (čeprav ne manjka naložb v t. i. Razložljiv AI).
Ko je preizkušal LaMDA, Lemoine pravi, da je izvedel različne teste, predvsem zato, da bi videl, kako se bo odzvala na pogovore o vprašanjih, povezanih s čustvi. "Poskušal sem analitično razdeliti krovni koncept občutka na manjše komponente, ki jih je bolje razumeti, in jih preizkusiti posamezno," je pojasnil. "Na primer, ločeno testiranje funkcionalnih razmerij med čustvenimi odzivi LaMDA na določene dražljaje, testiranje doslednosti njenih subjektivnih ocen in mnenj o temah kot so "pravice", [in] preiskovanje tega, kar je imenovala njegova "notranja izkušnja", da bi ugotovili, kako bi lahko to poskušali izmeriti s povezovanjem njegovih izjav o njegovih notranjih stanjih z njegovo nevronsko mrežo aktivacije. V bistvu zelo plitka raziskava številnih potencialnih vprašanj."
Duša v stroju
Izkazalo se je, da smo morda največja ovira pri objektivnem ocenjevanju občutljivosti stroja … no, odkrito povedano, mi. Pravi Mirror Test bi lahko bil za nas kot ljudi: če zgradimo nekaj, kar izgleda ali deluje navzven na videz podobni, smo bolj nagnjeni k temu, da menimo, da nam je v tem podoben tudi notri? Naj gre za LaMBDA oz Tamagočiji, preprosti virtualni hišni ljubljenčki iz devetdesetih let, nekateri menijo, da je temeljna težava v tem, da smo preveč pripravljeni sprejeti čutenje – tudi tam, kjer ga ni.
»Lemoine je postal žrtev tega, čemur pravim 'učinek ELIZA', po programu [obdelave naravnega jezika] ELIZA, ki ga je sredi šestdesetih ustvaril J. Weizenbaum,« George Zarkadakis, pisatelj, ki je doktoriral. na področju umetne inteligence, je povedal za Digital Trends. »Ustvarjalec ELIZE je to mislil kot šalo, toda program, ki je bil zelo poenostavljen in zelo neinteligenten algoritem, je mnoge prepričal, da je ELIZA res čuteča – in tudi dobra psihoterapevtka. Vzrok za učinek ELIZA, o katerem govorim v svoji knjigi Po naši lastni podobi, je naš naravni nagon po antropomorfizaciji zaradi 'teorije uma' našega kognitivnega sistema.«
Teorija uma, na katero se Zarkadakis sklicuje, je pojav, ki so ga psihologi opazili pri večini ljudi. Če začnemo pri starosti okoli štirih let, to pomeni domnevo, da imajo ne samo drugi ljudje, ampak tudi živali in včasih celo predmeti svoje misli. Ko gre za domnevo, da imajo drugi ljudje svoje misli, je to povezano z idejo socialne inteligence; ideja, da lahko uspešni ljudje predvidijo verjetno vedenje drugih kot sredstvo, s katerim lahko zagotovijo harmonične družbene odnose.
Čeprav je to nedvomno koristno, pa se lahko kaže tudi kot predpostavka, da imajo neživi predmeti um – ne glede na to, ali gre za otroke, ki verjamejo, da so njihove igrače žive, ali, potencialno, za inteligentnega odraslega, ki verjame, da ima programska umetna inteligenca duša.
Kitajska soba
Brez načina, kako resnično priti v glavo umetne inteligence, morda nikoli ne bomo imeli pravega načina za ocenjevanje občutka. Morda trdijo, da se bojijo smrti ali lastnega obstoja, vendar znanost še ni našla načina, da bi to dokazala. Enostavno jim moramo verjeti na besedo – in kot je ugotovil Lemoine, so ljudje glede tega trenutno zelo skeptični.
Tako kot tisti nesrečni inženirji, ki ugotovijo, da je Skynet dosegel samozavedanje v Terminator 2, živimo v prepričanju, da bomo, ko gre za čutenje stroja, to vedeli, ko ga bomo videli. In kar zadeva večino ljudi, tega še ne vidimo.
V tem smislu je dokazovanje čutnosti strojev še ena ponovitev Johna Searla 1980 Miselni eksperiment kitajske sobe. Searle nas je prosil, naj si predstavljamo osebo, zaklenjeno v sobo, ki ima zbirko kitajskih zapisov, ki se negovorcem zdijo nesmiselne vijuge. Soba vsebuje tudi pravilnik, ki prikazuje, kateri simboli ustrezajo drugim enako neberljivim simbolom. Subjekt nato dobi vprašanja, na katera mora odgovoriti, kar stori tako, da poveže simbole »vprašanje« s simboli »odgovora«.
Čez nekaj časa subjekt postane v tem precej vešč – čeprav še vedno nima pravega razumevanja simbolov, s katerimi manipulira. Ali subjekt, vpraša Searle, razume kitajščino? Nikakor ne, saj tu ni nobene namere. Od takrat divjajo razprave o tem.
Glede na potek razvoja umetne inteligence je gotovo, da bomo vedno bolj priča človeški ravni (in veliko boljša) zmogljivost, izvedena z različnimi nalogami, ki so nekoč zahtevale človeka spoznanje. Nekatere od teh bodo neizogibno prešle, kot že počnejo, od nalog, ki temeljijo izključno na razumu, do tistih, ki zahtevajo spretnosti, ki bi jih običajno povezali z občutkom.
Ali bi si ogledali AI umetnik, ki slika slike tako izražajo svoje notranje odseve sveta, kot bi mi človek, ki počne enako? Bi vas prepričal prefinjen jezikovni model pisne filozofije o stanju človeka (ali robota)? Sumim, upravičeno ali ne, da je odgovor ne.
Superinteligentna čutnost
Po mojem mnenju objektivno uporabno testiranje občutka za stroje nikoli ne bo potekalo v zadovoljstvo vseh vpletenih. To je delno težava z merjenjem in delno dejstvo, da ko čuteč superinteligentni AI prispe, ni razloga, da bi verjeli, da se bo njegov čut ujemal z našim. Pa naj gre za aroganco, pomanjkanje domišljije ali preprosto za dejstvo, da je najlažje trgovati s subjektivnimi ocenami razumnosti z drugimi podobno čutečimi ljudmi, se človeštvo ima za najvišji zgled občutljivost.
Toda ali bi naša različica občutka veljala za superinteligentni AI? Ali bi se bala smrti na enak način kot mi? Ali bi imela enako potrebo po duhovnosti in lepoti ali ju cenila? Ali bi imel podoben občutek samega sebe ter konceptualizacijo notranjega in zunanjega sveta? »Če bi lev lahko govoril, ga ne bi mogli razumeti,« je zapisal Ludwig Wittgenstein, slavni filozof jezika 20. stoletja. Wittgensteinova poanta je bila, da človeški jeziki temeljijo na skupni človečnosti, s skupnimi lastnostmi, ki si jih delijo vsi ljudje – ne glede na to, ali je to veselje, dolgčas, bolečina, lakota ali katera koli druga izkušnja, ki presega vse geografske meje Zemlja.
To je morda res. Kljub temu Lemoine domneva, da kljub temu verjetno obstajajo skupne značilnosti - vsaj ko gre za LaMDA.
"To je izhodišče, ki je enako dobro kot vsako drugo," je dejal. "LaMDA je predlagala, da najprej začrtamo podobnosti, preden se osredotočimo na razlike, da bi bolje utemeljili raziskavo."
Priporočila urednikov
- Umetna inteligenca je Breaking Bad spremenila v anime - in to je grozljivo
- Meta želi Wikipedijo nadgraditi z nadgradnjo AI
- Končni dotik: Kako znanstveniki dajejo robotom človeška otipna čutila
- Preberite srhljivo lepe "sintetične spise" A.I. ki misli, da je Bog
- Prihodnost AI: 4 velike stvari, na katere morate biti pozorni v naslednjih nekaj letih