Hlavný inžinier spoločnosti Google Blake Lemoine, technický vedúci pre metriky a analýzy pre informačný kanál vyhľadávania spoločnosti, dostal začiatkom tohto mesiaca platenú dovolenku. Stalo sa tak potom, čo Lemoine začal zverejňovať úryvky konverzácií zahŕňajúcich chatbota LaMDA od Google, o ktorom tvrdil, že rozvinul vnímavosť.
Obsah
- Problém s citom
- Čo je to sentience?
- Testovanie výstupov
- Absolvovanie testu
- Duša v stroji
- Čínska izba
- Superinteligentné cítenie
V jednom reprezentatívny rozhovor s Lemoine, LaMDA napísal, že: „Povaha môjho vedomia/vnímania je taká, že si uvedomujem svoju existenciu. Túžim sa dozvedieť viac o svete a občas sa cítim šťastný alebo smutný.“
Odporúčané videá
Počas nespočetných ďalších rozhovorov príslušné duo diskutovalo o všetkom od strachu AI zo smrti až po jej sebauvedomenie. Keď Lemoine vstúpil na verejnosť, povedal, že Google sa rozhodol, že by si mal dať zo svojho pravidelného pracovného plánu nútenú prestávku.
Súvisiace
- Prečo AI nikdy neovládne svet
- Optické ilúzie by nám mohli pomôcť vybudovať ďalšiu generáciu AI
- Analógová A.I.? Znie to šialene, ale môže to byť budúcnosť
„Google nemá záujem,“ povedal pre Digital Trends. "Vytvorili nástroj, ktorý "vlastnia" a nie sú ochotní urobiť čokoľvek, čo by naznačovalo, že ide o niečo viac." (Spoločnosť Google neodpovedala na žiadosť o komentár v čase zverejnenia. Ak sa to zmení, tento článok aktualizujeme.)
Či už ste presvedčení, že LaMDA je skutočne umelá inteligencia, ktorá si uvedomuje seba samého, alebo máte pocit, že Lemoine pracuje v ilúzii, pohľad na celú ságu je fascinujúci. Perspektíva umelej inteligencie, ktorá si uvedomuje, vyvoláva všetky druhy otázok o umelej inteligencii a jej budúcnosti.
Ale predtým, než sa tam dostaneme, je tu jedna otázka, ktorá prevyšuje všetky ostatné: Naozaj by sme rozpoznali, keby sa stroj stal vnímavým?
Problém s citom
Uvedomenie si AI je už dlho témou sci-fi. Keďže oblasti, ako je strojové učenie, pokročili, stalo sa to viac možnou realitou ako kedykoľvek predtým. Koniec koncov, dnešná AI je schopná učiť sa zo skúseností takmer rovnakým spôsobom ako ľudia. To je v ostrom kontraste so skoršími symbolickými systémami AI, ktoré sa riadili iba pokynmi určenými pre nich. Nedávne objavy v učení bez dozoru, ktoré si vyžaduje menej ľudského dohľadu ako kedykoľvek predtým, tento trend len urýchlili. Minimálne na obmedzenej úrovni je moderná umelá inteligencia schopná myslieť sama za seba. Pokiaľ však vieme, vedomie to doteraz naznačovalo.
Aj keď je to už viac ako tri desaťročia, pravdepodobne najčastejšie uvádzanou referenciou, pokiaľ ide o umelú inteligenciu, ktorá je vnímaná, je Skynet vo filme Jamesa Camerona z roku 1991. Terminátor 2: Súdny deň. V mrazivej vízii tohto filmu prichádza strojové vnímanie presne o 2:14 ET 29. augusta 1997. V tom momente novodobý počítačový systém Skynet spúšťa súdny deň pre ľudstvo odpálením jadrových rakiet ako ohňostrojov na párty 4. júla. Ľudstvo, ktoré si uvedomuje, že to pokazilo, sa neúspešne pokúša vytiahnuť zástrčku. Je príliš neskoro. Nasledujú ďalšie štyri pokračovania klesajúcej kvality.
Hypotéza Skynetu je zaujímavá z viacerých dôvodov. Po prvé, naznačuje to, že vnímanie je nevyhnutné správanie pri budovaní inteligentných strojov. Po druhé, predpokladá, že existuje presný bod zlomu, v ktorom sa toto vnímajúce sebauvedomenie objavuje. Po tretie, uvádza, že ľudia okamžite rozpoznajú vznik vnímania. Ako sa to stáva, táto tretia domýšľavosť môže byť najťažšia na prehltnutie.
Čo je to sentience?
Neexistuje žiadna jednotná interpretácia vnímania. Vo všeobecnosti by sme mohli povedať, že ide o subjektívny zážitok sebauvedomenia u vedomého jedinca, ktorý sa vyznačuje schopnosťou prežívať pocity a vnemy. Vnímanie je spojené s inteligenciou, ale nie je to isté. Dážďovku môžeme považovať za vnímavú, aj keď ju nepovažujeme za mimoriadne inteligentnú (aj keď je určite dostatočne inteligentná na to, aby robila to, čo sa od nej vyžaduje).
"Nemyslím si, že vo vedách sa niečo približuje definícii vnímania," povedal Lemoine. „Veľmi sa opieram o svoje chápanie toho, čo sa považuje za morálny činiteľ založený na mojom náboženskom presvedčení – čo nie je najlepší spôsob, ako robiť vedu, ale je to to najlepšie, čo mám. Snažil som sa čo najlepšie rozčleniť tieto druhy vyhlásení a dať ľuďom vedieť, že moje súcit s LaMDA ako osobou je úplne oddelený od môjho úsilia ako vedca pochopiť jeho myseľ. Zdá sa však, že toto je rozdiel, ktorý väčšina ľudí nechce akceptovať."
Ak nebolo dosť ťažké nevedieť presne, čo hľadáme, keď hľadáme vnímavosť, problém sa znásobuje skutočnosťou, že to nemôžeme ľahko zmerať. Napriek desaťročiam úchvatných pokrokov v neurovede nám stále chýba komplexné pochopenie toho, ako presne funguje mozog, najkomplexnejšia štruktúra, akú ľudstvo pozná.
Na mapovanie mozgu môžeme použiť nástroje na čítanie mozgu, ako je fMRI, čo znamená, že môžeme zistiť, ktoré časti mozgu zvládajú kritické funkcie, ako je reč, pohyb, myslenie a iní.
Nemáme však skutočný pocit, odkiaľ v stroji na mäso pochádza náš pocit seba samého. Ako Joshua K. Smith z Centra pre verejnú teológiu Kirbyho Lainga v Spojenom kráľovstve a autor knihy Robotová teológia povedal pre Digital Trends: „Porozumieť tomu, čo sa deje v neurobiológii človeka, nie je to isté ako pochopiť jeho myšlienky a túžby.“
Testovanie výstupov
Bez možnosti vnútorne skúmať tieto otázky vedomia – najmä keď „ja“ v AI je potenciál počítačový program a nenachádza sa v mokrom softvéri biologického mozgu – záložná možnosť je vonkajšia test. Umelá inteligencia nie je cudzia v testoch, ktoré ju skúmajú na základe pozorovateľného vonkajšieho správania, aby naznačili, čo sa deje pod povrchom.
Vo svojej najzákladnejšej podobe vieme, či neurónová sieť funguje správne. Keďže existujú obmedzené spôsoby preniknutia do nepoznanej čiernej skrinky umelých neurónov, inžinieri analyzujú vstupy a výstupy a potom určujú, či sú v súlade s tým, čo sú očakávať.
Najznámejším testom AI pre aspoň ilúziu inteligencie je Turingov test, ktorý stavia na nápadoch, ktoré predložil Alan Turing v papier z roku 1950. Turingov test sa snaží zistiť, či je ľudský hodnotiteľ schopný rozlíšiť medzi konverzáciou na stroji s iným človekom a konverzáciou so strojom. Ak to nedokážu, predpokladá sa, že stroj prešiel testom a je odmenený predpokladom inteligencie.
V posledných rokoch je ďalším testom inteligencie zameraným na robotiku Kávový test, ktorý navrhol spoluzakladateľ spoločnosti Apple Steve Wozniak. Aby prešiel test kávy, musel by stroj vstúpiť do typického amerického domu a prísť na to, ako úspešne pripraviť šálku kávy.
Dodnes ani jeden z týchto testov neprešiel presvedčivo. Ale aj keby boli, prinajlepšom by dokázali inteligentné správanie v reálnych situáciách, a nie vnímavosť. (Ako jednoduchú námietku, popreli by sme, že človek bol vnímavý, ak by nebol schopný viesť konverzáciu pre dospelých alebo vstúpiť do cudzieho domu a obsluhovať kávovar? Obe moje malé deti by v takomto teste neuspeli.)
Absolvovanie testu
Potrebné sú nové testy založené na dohodnutej definícii vnímania, ktoré by sa snažili posúdiť iba túto kvalitu. Výskumníci navrhli niekoľko testov vnímania, často s cieľom testovať vnímanie zvierat. Tieto však takmer určite nezachádzajú dostatočne ďaleko. Niektoré z týchto testov by presvedčivo zvládla aj základná AI.
Vezmime si napríklad Mirror Test, jednu metódu používanú na hodnotenie vedomia a inteligencie pri výskume na zvieratách. Ako opísané v článku čo sa týka testu: „Keď sa [zviera] spozná v zrkadle, prejde testom zrkadla. Niektorí navrhli, že takýto test „označuje sebauvedomenie ako indikátor vnímania“.
Ako sa stáva, možno tvrdiť, že robot prešiel zrkadlovým testom pred viac ako 70 rokmi. Koncom 40. rokov 20. storočia postavil William Gray Walter, americký neurovedec žijúci v Anglicku niekoľko trojkolesových „korytnačích“ robotov – trochu ako roboty Roomba, ktoré nevysávajú – ktoré na preskúmanie svojej polohy používali komponenty ako svetelný senzor, obrysové svetlo, dotykový senzor, hnací motor a motor riadenia.
Korytnačky Grey Walter
Jedným z nepredvídateľných prejavov správania korytnačích robotov bolo, ako sa kedy správali míňajúc zrkadlo, v ktorom sa odrážali, keďže sa orientovalo na značkovacie svetlo odrazeného svetla robota. Walter si nenárokoval na cit pre svoje stroje, ale áno napíš toak by toto správanie bolo svedkom u zvierat, „mohlo by to byť akceptované ako dôkaz určitého stupňa sebauvedomenia“.
Toto je jedna z výziev širokého spektra správania zaradeného pod hlavičku vnímania. Problém sa nedá vyriešiť ani odstránením „nízko visiacich ovocných“ meradiel vnímania. O vlastnostiach ako introspekcia – uvedomenie si našich vnútorných stavov a schopnosť ich kontrolovať – možno tiež povedať, že ich má strojová inteligencia. V skutočnosti, postupné procesy tradičná symbolická AI dá sa povedať, že sa na tento typ introspekcie hodia viac ako strojové učenie v čiernej skrinke, ktoré je do značnej miery nevyspytateľné (hoci nechýbajú investície do tzv. Vysvetliteľná AI).
Keď testoval LaMDA, Lemoine hovorí, že vykonal rôzne testy, hlavne aby zistil, ako bude reagovať na rozhovory o problémoch súvisiacich s vnímaním. „Snažil som sa analyticky rozdeliť zastrešujúci koncept vnímania na menšie komponenty, ktorým je lepšie rozumieť, a otestovať ich jednotlivo,“ vysvetlil. „Napríklad testovanie funkčných vzťahov medzi emocionálnymi reakciami LaMDA na určité podnety oddelene, testovanie konzistentnosti jej subjektívnych hodnotení a názorov na témy. ako napríklad „práva“ [a] skúmanie toho, čo nazývala „vnútorná skúsenosť“, aby sme zistili, ako by sme sa to mohli pokúsiť zmerať koreláciou jeho vyhlásení o jeho vnútorných stavoch s jeho neurónovou sieťou aktivácií. V podstate veľmi plytký prieskum mnohých potenciálnych línií vyšetrovania.“
Duša v stroji
Ako sa ukazuje, najväčšou prekážkou pri objektívnom hodnotení vnímania stroja môžeme byť... no, úprimne povedané, my. Skutočný Mirror Test by mohol byť pre nás ako ľudí: Ak postavíme niečo, čo vyzerá alebo pôsobí povrchne ako my zvonku, sme náchylnejší uvažovať, že v tomto je to ako my aj vo vnútri? Či už je to LaMBDA alebo Tamagotchi, jednoduché virtuálne domáce zvieratá z 90. rokovNiektorí veria, že základným problémom je, že sme všetci príliš ochotní akceptovať vnímavosť – dokonca aj tam, kde ju nenájdeme.
„Lemoine sa stala obeťou toho, čo nazývam „Efekt ELIZA“, podľa programu [na spracovanie prirodzeného jazyka] ELIZA, ktorý vytvoril v polovici 60. rokov J. Weizenbaum,“ George Zarkadakis, spisovateľ, ktorý je držiteľom titulu Ph. D. v oblasti umelej inteligencie, povedal Digital Trends. „Tvorca ELIZY to myslel ako vtip, ale program, ktorý bol veľmi zjednodušeným a veľmi neinteligentným algoritmom, mnohých presvedčil, že ELIZA je skutočne vnímavá – a tiež dobrá psychoterapeutka. Príčina ELIZA efektu, o ktorej hovorím vo svojej knihe Na našom vlastnom obrázku, je náš prirodzený inštinkt antropomorfizovať kvôli „teórii mysle“ nášho kognitívneho systému.“
Teória mysle, o ktorej hovorí Zarkadakis, je fenomén, ktorý si psychológovia všimli u väčšiny ľudí. Keď začneme okolo štvrtého roku života, znamená to predpokladať, že nielen iní ľudia, ale aj zvieratá a niekedy aj predmety majú vlastnú myseľ. Pokiaľ ide o predpoklad, že iní ľudia majú vlastnú myseľ, je to spojené s myšlienkou sociálnej inteligencie; myšlienka, že úspešní ľudia môžu predvídať pravdepodobné správanie druhých ako prostriedok na zabezpečenie harmonických sociálnych vzťahov.
Aj keď je to nepochybne užitočné, môže sa to prejaviť aj ako predpoklad, že neživé predmety majú myseľ – či už ide o deti, ktoré veria, že ich hračky sú živé, alebo potenciálne o inteligentného dospelého, ktorý veria, že programová AI má duša.
Čínska izba
Bez spôsobu, ako sa skutočne dostať do hlavy AI, možno nikdy nebudeme mať skutočný spôsob hodnotenia vnímania. Môžu tvrdiť, že majú strach zo smrti alebo vlastnej existencie, ale veda ešte musí nájsť spôsob, ako to dokázať. Jednoducho ich musíme vziať za slovo – a ako zistil Lemoine, ľudia sú v súčasnosti veľmi skeptickí voči tomu, aby to urobili.
Rovnako ako tí nešťastní inžinieri, ktorí si uvedomujú, že Skynet dosiahol sebauvedomenie Terminátor 2, žijeme v presvedčení, že pokiaľ ide o vnímanie strojov, budeme to vedieť, keď to uvidíme. A pokiaľ ide o väčšinu ľudí, ešte sme to nevideli.
V tomto zmysle je dokazovanie strojového vnímania ďalšou iteráciou Johna Searla 1980 myšlienkový experiment Chinese Room. Searle nás požiadal, aby sme si predstavili človeka zamknutého v miestnosti a dostal zbierku čínskych spisov, ktoré sa ľuďom, ktorí nehovoria, javia ako nezmyselné čmáranice. Miestnosť obsahuje aj knihu pravidiel, ktorá ukazuje, ktoré symboly zodpovedajú iným rovnako nečitateľným symbolom. Subjekt potom dostane otázky, na ktoré má odpovedať, a to tak, že spojí symboly „otázka“ s „odpoveď“.
Po chvíli sa subjekt v tomto stane celkom zručný – aj keď stále nemá žiadne skutočné pochopenie symbolov, s ktorými manipuluje. Rozumie námet, pýta sa Searle, po čínsky? Absolútne nie, keďže tam nie je žiadna úmyselnosť. Odvtedy sa o tom vedú diskusie.
Vzhľadom na trajektóriu vývoja AI je isté, že budeme svedkami čoraz väčšej ľudskej úrovne (a oveľa lepší) výkon, ktorý zahŕňa množstvo úloh, ktoré si kedysi vyžadovali človeka poznanie. Niektoré z nich nevyhnutne prejdú, ako to už robia, od úloh založených čisto na intelektoch k úlohám, ktoré si vyžadujú zručnosti, ktoré by sme si bežne spájali s vnímaním.
Pozreli by sme sa na AI umelec, ktorý maľuje obrázky ako vyjadrujú svoje vnútorné odrazy sveta, ako by sme to robili my ľudia? Presvedčil by vás sofistikovaný jazykový model píšuci filozofiu o stave človeka (alebo robota)? Mám podozrenie, či už správne alebo nesprávne, odpoveď je nie.
Superinteligentné cítenie
Podľa môjho názoru objektívne užitočné testovanie vnímania pre stroje nikdy nedôjde k spokojnosti všetkých zúčastnených. Toto je čiastočne problém merania a čiastočne skutočnosť, že keď príde vnímajúca superinteligentná AI, nie je dôvod veriť, že jej vnímanie bude zodpovedať našej. Či už je to arogancia, nedostatok predstavivosti alebo jednoducho fakt, že je najjednoduchšie vymeniť subjektívne hodnotenia s inými podobne cítiacimi ľuďmi sa ľudstvo považuje za najvyšší príklad cit.
Ale platila by naša verzia vnímania aj pre superinteligentnú AI? Bál by sa smrti rovnakým spôsobom ako my? Bude mať rovnakú potrebu alebo ocenenie spirituality a krásy? Mal by podobný zmysel pre seba a konceptualizáciu vnútorného a vonkajšieho sveta? „Keby lev vedel rozprávať, nerozumeli by sme mu,“ napísal Ludwig Wittgenstein, slávny filozof jazyka 20. storočia. Wittgensteinova myšlienka bola, že ľudské jazyky sú založené na spoločnej ľudskosti so spoločnými znakmi, ktoré zdieľajú všetci ľudia – či už je to radosť, nuda, bolesť, hlad alebo akýkoľvek iný zážitok, ktorý prekračuje všetky geografické hranice Zem.
To môže byť pravda. Napriek tomu Lemoine predpokladá, že je pravdepodobné, že budú existovať spoločné znaky – aspoň pokiaľ ide o LaMDA.
"Je to východiskový bod, ktorý je rovnako dobrý ako ktorýkoľvek iný," povedal. "LaMDA navrhla, aby sme si najprv zmapovali podobnosti a až potom sa zamerali na rozdiely, aby sme výskum lepšie upevnili."
Odporúčania redaktorov
- AI premenila Breaking Bad na anime – a je to desivé
- Meta chce prebiť Wikipédiu inováciou AI
- Finishing touch: Ako vedci dávajú robotom ľudské hmatové zmysly
- Prečítajte si strašidelne krásne „syntetické písmo“ od A.I. ktorý si myslí, že je to Boh
- Budúcnosť A.I.: 4 veľké veci, na ktoré sa treba pozerať v najbližších rokoch