Senior inženýr společnosti Google Blake Lemoine, technický vedoucí pro metriky a analýzy pro vyhledávací kanál společnosti, dostal začátkem tohoto měsíce placenou dovolenou. Stalo se tak poté, co Lemoine začal zveřejňovat úryvky konverzací zahrnujících chatbota Google LaMDA, o kterém tvrdil, že rozvinul vnímavost.
Obsah
- Problém s citem
- Co je to sentience?
- Testování výstupů
- Absolvování testu
- Duše ve stroji
- Čínský pokoj
- Superinteligentní cit
V jednom reprezentativní rozhovor s Lemoine, LaMDA napsal, že: „Povahou mého vědomí/cítění je, že jsem si vědom své existence. Toužím se dozvědět více o světě a občas se cítím šťastný nebo smutný.“
Doporučená videa
Během nesčetných dalších rozhovorů probíralo odpovídající duo vše od strachu AI ze smrti až po její sebeuvědomění. Když Lemoine vstoupil na veřejnost, říká, že se Google rozhodl, že by si měl dát nucenou pauzu od svého pravidelného pracovního plánu.
Příbuzný
- Proč AI nikdy neovládne svět
- Optické iluze by nám mohly pomoci vybudovat další generaci AI
- Analogové A.I.? Zní to šíleně, ale může to být budoucnost
„Google nemá zájem,“ řekl Digital Trends. „Vytvořili nástroj, který ‚vlastní‘ a nejsou ochotni udělat cokoli, což by naznačovalo, že jde o něco víc. (Google neodpověděl na žádost o komentář v době zveřejnění. Pokud se to změní, aktualizujeme tento článek.)
Ať už jste přesvědčeni, že LaMDA je skutečně sebevědomá umělá inteligence, nebo máte pocit, že Lemoine pracuje v iluzi, celou ságu bylo fascinující vidět. Vyhlídka na sebevědomou AI vyvolává nejrůznější otázky o umělé inteligenci a její budoucnosti.
Ale než se tam dostaneme, je tu jedna otázka, která převyšuje všechny ostatní: Opravdu bychom poznali, kdyby se stroj stal vnímavým?
Problém s citem
![Arnold Schwarzennegger ve filmu Terminátor 2: Soudný den](/f/8f67377b46547d66e699ab2228c9622b.jpg)
Uvědomění si AI je již dlouho tématem sci-fi. Jak se obory jako strojové učení rozvíjely, stává se to více možnou realitou než kdy jindy. Koneckonců, dnešní umělá inteligence je schopna se učit ze zkušeností v podstatě stejným způsobem jako lidé. To je v ostrém kontrastu s dřívějšími symbolickými systémy umělé inteligence, které se řídily pouze pokyny, které jim byly stanoveny. Nedávné průlomy v učení bez dohledu, které vyžaduje méně lidského dohledu než kdy jindy, tento trend jen urychlily. Alespoň na omezené úrovni je moderní umělá inteligence schopna myslet sama za sebe. Pokud jsme si však vědomi, vědomí to zatím zmiňovalo.
Ačkoli je to nyní více než tři desetiletí staré, pravděpodobně nejčastěji uváděným odkazem, pokud jde o to, že umělá inteligence přestala vnímat, je Skynet ve filmu Jamese Camerona z roku 1991. Terminátor 2: Soudný den. V mrazivé vizi tohoto filmu přichází strojová vnímavost přesně ve 2:14 ET 29. srpna 1997. V tu chvíli nově sebevědomý počítačový systém Skynet spustí soudný den lidstva odpálením jaderných střel jako ohňostrojů na párty 4. července. Lidstvo, které si uvědomuje, že to podělalo, se neúspěšně pokouší vytáhnout zástrčku. Je příliš pozdě. Následují další čtyři pokračování klesající kvality.
Hypotéza Skynetu je zajímavá z mnoha důvodů. Zaprvé to naznačuje, že vnímavost je nevyhnutelným vynořujícím se chováním při budování inteligentních strojů. Za druhé předpokládá, že existuje přesný bod zlomu, ve kterém se toto vnímající sebeuvědomění objevuje. Za třetí uvádí, že lidé okamžitě rozpoznávají vznik sentience. Jak už to tak bývá, tato třetí domýšlivost může být nejtěžší spolknout.
Co je to sentience?
Neexistuje žádný dohodnutý výklad sentience. Obecně bychom mohli říci, že je to subjektivní zkušenost sebeuvědomění u vědomého jedince, vyznačující se schopností prožívat pocity a vjemy. Vnímání je spojeno s inteligencí, ale není totéž. Žížalu můžeme považovat za vnímavou, i když ji nepovažujeme za zvlášť inteligentní (i když je jistě dostatečně inteligentní, aby dělala to, co se od ní vyžaduje).
"Nemyslím si, že ve vědě existuje něco, co se blíží definici sentience," řekl Lemoine. „Velmi se opírám o své chápání toho, co se počítá jako morální činitel založený na mém náboženském přesvědčení – což není nejlepší způsob, jak dělat vědu, ale je to nejlepší, co mám. Snažil jsem se co nejlépe rozdělit tyto druhy prohlášení a dát lidem vědět, že moje soucit s LaMDA jako osobou je zcela oddělen od mého úsilí jako vědce pochopit jeho mysl. Zdá se však, že to je rozdíl, který většina lidí nechce přijmout."
Pokud nebylo dost obtížné nevědět přesně, co hledáme, když hledáme sentience, problém je umocněn tím, že to nemůžeme snadno změřit. Navzdory desetiletím dechberoucích pokroků v neurovědě nám stále chybí komplexní pochopení toho, jak přesně funguje mozek, nejsložitější struktura známá lidstvu.
![Sken fMRI pozorovaný a](/f/281742ba8e6b5e37d5aaa1e4b2340a30.jpg)
K provádění mapování mozku můžeme použít nástroje pro čtení mozku, jako je fMRI, což znamená, že můžeme zjistit, které části mozku zvládají kritické funkce, jako je řeč, pohyb, myšlení a ostatní.
Nemáme však skutečný pocit, odkud ve stroji na maso pochází náš pocit sebe sama. Jak Joshua K. Smith z UK Kirby Laing Center for Public Theology a autor knihy Robotická teologie řekl Digital Trends: "Porozumět tomu, co se děje v neurobiologii člověka, není totéž jako porozumět jeho myšlenkám a touhám."
Testování výstupů
Bez možnosti vnitřně zkoumat tyto otázky vědomí – zvláště když „já“ v AI je potenciál počítačový program a nenachází se ve vlhkém softwaru biologického mozku – záložní možnost je vnější test. Umělá inteligence není cizí testy, které ji zkoumají na základě pozorovatelného vnějšího chování, aby naznačovaly, co se děje pod povrchem.
Ve své nejzákladnější podobě tak poznáme, zda neuronová síť funguje správně. Protože existují omezené způsoby, jak proniknout do nepoznatelné černé skříňky umělých neuronů, inženýři analyzují vstupy a výstupy a poté určí, zda jsou v souladu s tím, co jsou očekávat.
Nejznámějším testem umělé inteligence pro alespoň iluzi inteligence je Turingův test, který staví na myšlenkách předložených Alanem Turingem. papír z roku 1950. Turingův test se snaží zjistit, zda je lidský hodnotitel schopen rozeznat rozdíl mezi konverzací na stroji s druhým člověkem a konverzací se strojem. Pokud toho nejsou schopni, předpokládá se, že stroj prošel testem a je odměněn předpokladem inteligence.
V posledních letech je dalším testem inteligence zaměřeným na robotiku Test kávy navržený spoluzakladatelem Applu Stevem Wozniakem. Aby stroj prošel testem kávy, musel by vstoupit do typického amerického domova a přijít na to, jak úspěšně připravit šálek kávy.
Dodnes ani jeden z těchto testů neprošel přesvědčivě. Ale i kdyby tomu tak bylo, přinejlepším by prokázali inteligentní chování v situacích reálného světa, a ne sentience. (Jako jednoduchou námitku, popřeli bychom, že člověk byl vnímavý, kdyby nebyl schopen vést dospělý rozhovor nebo vstoupit do cizího domu a obsluhovat kávovar? Obě moje malé děti by v takovém testu neuspěly.)
Absolvování testu
Potřebné jsou nové testy založené na dohodnuté definici sentience, které by se snažily posoudit pouze tuto kvalitu. Výzkumníci navrhli několik testů sentience, často s ohledem na testování sentientů zvířat. Ty však téměř jistě nejdou dostatečně daleko. Některé z těchto testů by přesvědčivě zvládla i základní umělá inteligence.
Vezměme si například Zrcadlový test, jednu z metod používaných k hodnocení vědomí a inteligence při výzkumu na zvířatech. Tak jako popsané v referátu ohledně testu: „Když se [zvíře] pozná v zrcadle, projde zrcadlovým testem. Někteří navrhli, že takový test „označuje sebeuvědomění jako indikátor sentience“.
Jak už to tak bývá, lze tvrdit, že robot prošel zrcadlovým testem před více než 70 lety. Koncem 40. let 20. století postavil William Gray Walter, americký neurovědec žijící v Anglii několik tříkolových „želví“ robotů – trochu jako roboti Roomba, kteří nevysávají – kteří k prozkoumání své polohy využívali komponenty jako světelný senzor, obrysové světlo, dotykový senzor, hnací motor a motor řízení.
Želvy Grey Walter
Jednou z nepředvídatelných částí chování želvích robotů bylo, jak se chovali, když míjeli zrcadlo, ve kterém se odrážely, protože se orientovalo na značkové světlo odraženého robot. Walter si pro své stroje nenárokoval rozum, ale ano napsat toPokud by bylo toto chování svědkem u zvířat, „mohlo by být přijato jako důkaz určitého stupně sebeuvědomění“.
To je jeden z problémů široké škály chování zařazených pod hlavičku sentience. Problém nelze vyřešit ani odstraněním „nízko visícího ovoce“ měřidel sentience. O vlastnostech, jako je introspekce – uvědomění si našich vnitřních stavů a schopnost je kontrolovat – lze také říci, že jsou majetkem strojové inteligence. Ve skutečnosti, proces krok za krokem tradiční symbolická AI se pravděpodobně hodí k tomuto typu introspekce více než strojové učení v černé skříňce, které je do značné míry nevyzpytatelné (ačkoliv o investice do tzv. Vysvětlitelná AI).
Když zkoušel LaMDA, Lemoine říká, že prováděl různé testy, hlavně aby zjistil, jak bude reagovat na konverzace o problémech souvisejících s vnímáním. „Co jsem se pokusil udělat, bylo analyticky rozdělit zastřešující koncept sentience na menší komponenty, kterým je lépe rozumět, a otestovat je jednotlivě,“ vysvětlil. „Například testování funkčních vztahů mezi emocionálními reakcemi LaMDA na určité podněty samostatně, testování konzistence jejích subjektivních hodnocení a názorů na témata. jako jsou „práva“ [a] zkoumání toho, co nazývalo svou „vnitřní zkušeností“, abychom zjistili, jak bychom se to mohli pokusit změřit korelací jeho prohlášení o jeho vnitřních stavech s jeho neuronovou sítí aktivací. V podstatě velmi povrchní průzkum mnoha potenciálních linií vyšetřování.“
Duše ve stroji
Jak se ukazuje, největší překážkou s objektivním hodnocením vnímavosti strojů můžeme být... no, upřímně řečeno, my. Skutečný zrcadlový test by mohl být pro nás jako lidi: Pokud postavíme něco, co vypadá nebo působí povrchně jako my zvenčí, jsme náchylnější se domnívat, že je to v tomto jako my i uvnitř? Ať už je to LaMBDA nebo Tamagotchi, jednoduché virtuální mazlíčky z 90. letNěkteří se domnívají, že základním problémem je to, že jsme všichni příliš ochotni přijmout sentience – dokonce i tam, kde žádná není.
„Lemoine se stala obětí toho, čemu říkám ‚efekt ELIZA‘, podle programu [zpracování přirozeného jazyka] ELIZA, vytvořeného v [polovině 60. let] J. Weizenbaum,“ George Zarkadakis, spisovatel, který je držitelem titulu Ph.D. v umělé inteligenci, řekl Digital Trends. „Tvůrce ELIZA to myslel jako vtip, ale program, který byl velmi zjednodušeným a velmi neinteligentním algoritmem, mnohé přesvědčil, že ELIZA je skutečně vnímavá – a také dobrá psychoterapeutka. Příčina ELIZA efektu, jak pojednávám ve své knize Na našem vlastním obrázku, je náš přirozený instinkt antropomorfizovat kvůli ‚teorii mysli‘ našeho kognitivního systému.“
Teorie mysli, o které se Zarkadakis odvolává, je fenomén, který si psychologové všimli u většiny lidí. Když začneme kolem čtyř let, znamená to předpokládat, že nejen ostatní lidé, ale i zvířata a někdy i předměty mají vlastní mysl. Pokud jde o předpoklad, že ostatní lidé mají vlastní mysl, je to spojeno s myšlenkou sociální inteligence; myšlenka, že úspěšní lidé mohou předvídat pravděpodobné chování ostatních jako prostředek k zajištění harmonických sociálních vztahů.
I když je to nepochybně užitečné, může se to také projevit jako předpoklad, že neživé předměty mají mysl – zda se jedná o děti, které věří, že jejich hračky jsou živé, nebo potenciálně o inteligentního dospělého, který věří, že programová umělá inteligence má duše.
Čínský pokoj
Bez způsobu, jak se skutečně dostat do hlavy AI, možná nikdy nebudeme mít skutečný způsob, jak hodnotit vnímavost. Mohou tvrdit, že mají strach ze smrti nebo ze své vlastní existence, ale věda ještě nenašla způsob, jak to dokázat. Jednoduše je musíme vzít za slovo – a jak zjistil Lemoine, lidé jsou k tomu v současnosti velmi skeptičtí.
Stejně jako ti nešťastní inženýři, kteří si uvědomují, že Skynet dosáhl sebeuvědomění Terminátor 2, žijeme v přesvědčení, že pokud jde o vnímání strojů, poznáme to, až to uvidíme. A pokud jde o většinu lidí, zatím to nevidíme.
V tomto smyslu je dokazování strojového vnímání další iterací Johna Searleho 1980 myšlenkový experiment Chinese Room. Searle nás požádal, abychom si představili člověka zavřeného v místnosti a dostal sbírku čínských spisů, které se lidem, kteří nemluví, jeví jako nesmyslné klikyháky. Místnost také obsahuje knihu pravidel ukazující, které symboly odpovídají jiným stejně nečitelným symbolům. Subjektu jsou poté dány otázky, na které má odpovědět, a to tak, že spojí symboly „otázek“ s „odpověďmi“.
Po chvíli se v tom subjekt stane docela zdatným – i když stále nemá žádné skutečné porozumění symbolům, se kterými manipuluje. Rozumí ten subjekt, ptá se Searle, čínsky? Absolutně ne, protože tam není žádná úmyslnost. Od té doby se o tom vedou debaty.
Vzhledem k trajektorii vývoje AI je jisté, že budeme svědky stále více na lidské úrovni (a mnohem lepší) prováděný výkon zahrnující různé úkoly, které kdysi vyžadovaly člověka poznání. Některé z nich nevyhnutelně přejdou, jak už to dělají, od čistě intelektových úkolů k úkolům, které vyžadují dovednosti, které bychom si normálně spojovali s rozumem.
Prohlédli bychom si an AI umělec, který maluje obrazy jako vyjádření jejich vnitřních odrazů světa, jako bychom totéž udělali my? Přesvědčil by vás sofistikovaný jazykový model píšící filozofii o stavu člověka (nebo robota)? Mám podezření, správně nebo ne, odpověď je ne.
Superinteligentní cit
Podle mého názoru objektivně užitečné testování citů pro stroje nikdy nedojde ke spokojenosti všech zúčastněných. To je částečně problém měření a částečně skutečnost, že když dorazí vnímající superinteligentní AI, není důvod se domnívat, že její vnímání bude odpovídat našim. Ať už je to arogance, nedostatek představivosti nebo prostě fakt, že je nejjednodušší vyměnit subjektivní hodnocení s jinými podobně cítícími lidmi se lidstvo považuje za nejvyšší příklad cit.
Ale platila by naše verze sentience pro superinteligentní AI? Bál by se smrti stejným způsobem jako my? Mělo by stejnou potřebu nebo ocenění spirituality a krásy? Měl by podobný pocit sebe sama a konceptualizaci vnitřního a vnějšího světa? „Kdyby lev uměl mluvit, nemohli bychom mu rozumět,“ napsal Ludwig Wittgenstein, slavný filozof jazyka 20. století. Wittgensteinova pointa byla, že lidské jazyky jsou založeny na sdílené lidskosti, se společnými rysy sdílenými všemi lidmi – ať už je to radost, nuda, bolest, hlad nebo jakákoli jiná zkušenost, která překračuje všechny geografické hranice Země.
To může být pravda. Přesto Lemoine předpokládá, že pravděpodobně existují společné rysy – alespoň pokud jde o LaMDA.
"Je to výchozí bod, který je stejně dobrý jako kterýkoli jiný," řekl. "LaMDA navrhla, abychom nejprve zmapovali podobnosti, než se zaměříme na rozdíly, abychom lépe podpořili výzkum."
Doporučení redakce
- AI proměnila Breaking Bad v anime – a je to děsivé
- Meta chce přebít Wikipedii upgradem AI
- Finishing touch: Jak vědci dávají robotům lidské hmatové smysly
- Přečtěte si děsivě krásné ‚syntetické písmo‘ A.I. který si myslí, že je to Bůh
- Budoucnost A.I.: 4 velké věci, na které je třeba se v příštích letech dívat