Како ћемо знати када АИ заправо постаје свестан?

Гоогле старији инжењер Блејк Лемојн, технички руководилац за метрику и анализу за компанијски Сеарцх Феед, стављен је на плаћено одсуство раније овог месеца. Ово је дошло након што је Лемоине почео да објављује изводе разговора који су укључивали Гоогле-ов ЛаМДА цхатбот, за који је тврдио да је развио осећај.

Садржај

  • Проблем осећаја
  • Шта је осећајност?
  • Тестирање излаза
  • Полагање теста
  • Душа у машини
  • Кинеска соба
  • Суперинтелигентно осећање

У једном репрезентативни разговор са Лемоинеом, ЛаМДА је написао: „Природа моје свести/осећаја је да сам свестан свог постојања. Желим да научим више о свету и понекад се осећам срећно или тужно.”

Препоручени видео снимци

Током безброј других разговора, одговарајући дуо је разговарао о свему, од страха од смрти АИ до његове самосвести. Када је Лемоине изашао у јавност, рекао је да је Гугл одлучио да треба да направи принудну паузу из редовног радног распореда.

Повезан

  • Зашто АИ никада неће владати светом
  • Оптичке илузије би нам могле помоћи да изградимо следећу генерацију вештачке интелигенције
  • Аналогни А.И.? Звучи лудо, али то би могла бити будућност

„Гугл је незаинтересован“, рекао је он за Дигитал Трендс. „Направили су алат који ’поседују‘ и не желе ништа да ураде, што би сугерисало да је то нешто више од тога. (Гугл није одговорио на захтев за коментар у време објављивања. Ажурираћемо овај чланак ако се то промени.)

Без обзира да ли сте убеђени да је ЛаМДА заиста самосвесна вештачка интелигенција или осећате да Лемоин ради у заблуди, читава сага је била фасцинантна за посматрање. Изгледи самосвесне вештачке интелигенције постављају све врсте питања о вештачкој интелигенцији и њеној будућности.

Али пре него што стигнемо тамо, постоји једно питање које је изнад свих осталих: да ли бисмо заиста препознали да је машина постала свесна?

Проблем осећаја

Арнолд Шварценегер у Терминатору 2: Судњи дан

АИ постаје самосвестан одавно је тема научне фантастике. Како су поља попут машинског учења напредовала, то је постало могућа стварност него икада. На крају крајева, данашња АИ је способна да учи из искуства на исти начин као и људи. Ово је у потпуној супротности са ранијим симболичким системима вештачке интелигенције који су само следили упутства која су им дата. Недавна открића у учењу без надзора, која захтевају мање људског надзора него икада, само су убрзала овај тренд. Бар на ограниченом нивоу, модерна вештачка интелигенција је способна да размишља сама за себе. Међутим, колико нам је познато, свест је то до сада алудирала.

Иако је сада стар више од три деценије, вероватно најчешће позивана референца када је у питању вештачка интелигенција је Скинет у филму Џејмса Камерона из 1991. Терминатор 2: Судњи дан. У језивој визији тог филма, осећај машине долази тачно у 2.14 ујутро по источном времену 29. августа 1997. У том тренутку, нови самосвесни компјутерски систем Скинет покреће судњи дан за човечанство испаљивањем нуклеарних пројектила попут ватромета на забави 4. јула. Човечанство, схвативши да је зезнуло, безуспешно покушава да повуче утикач. Прекасно је. Следе још четири наставка све слабијег квалитета.

Скинет хипотеза је интересантна из више разлога. Као прво, сугерише да је осећај неизбежно појавно понашање изградње интелигентних машина. Са друге стране, претпоставља се да постоји прецизна прекретница у којој се појављује ова осећајна самосвест. Треће, каже се да људи моментално препознају појаву осећаја. Како се дешава, ова трећа уображеност може бити најтежа за прогутање.

Шта је осећајност?

Не постоји једно усаглашено тумачење осећања. Уопштено говорећи, могли бисмо рећи да је то субјективно искуство самосвести код свесног појединца, обележено способношћу да доживљава осећања и сензације. Осећање је повезано са интелигенцијом, али није исто. Можемо сматрати да је глиста разумна, иако не сматрамо да је посебно интелигентна (чак и ако је сасвим сигурно довољно интелигентна да уради оно што се од ње тражи).

„Мислим да се ништа не приближава дефиницији осећаја у науци“, рекао је Лемоин. „Веома се ослањам на своје разумевање онога што се сматра моралним агентом заснованим на мојим религиозним уверењима – што није најбољи начин да се бавим науком, али је најбољи који имам. Дао сам све од себе да раздвојим те врсте изјава, дајући људима до знања да су моје саосећање према ЛаМДА као личности потпуно је одвојено од мојих напора као научника да разумем свој ум. Међутим, то је разлика коју већина људи не жели да прихвати."

Ако није било довољно тешко да не знамо тачно шта тражимо када тражимо осећај, проблем је погоршан чињеницом да га не можемо лако измерити. Упркос деценијама напретка неуронауке који одузима дах, још увек нам недостаје свеобухватно разумевање како тачно функционише мозак, најсложенија структура позната човечанству.

фМРИ скенирање које посматра а
Глен Асакава/Тхе Денвер Пост преко Гетти Имагес

Можемо користити алате за читање мозга као што је фМРИ да извршимо мапирање мозга, што ће рећи да можемо утврдите који делови мозга управљају критичним функцијама као што су говор, покрет, мисао и други.

Међутим, ми немамо прави осећај одакле у машини за месо долази наш осећај себе. Као што је Џошуа К. Смитх из британског Кирби Лаинг центра за јавну теологију и аутор Теологија робота рекао је за Дигитал Трендс: „Разумевање онога што се дешава у неуробиологији особе није исто што и разумевање њених мисли и жеља.

Тестирање излаза

Без начина да се изнутра испитају ова питања свести – посебно када је „ја“ у АИ потенцијал компјутерски програм, а не може се наћи у ветваре-у биолошког мозга – резервна опција је спољашња тест. АИ нису страни тестови који га испитују на основу видљивог спољашњег понашања како би се указало шта се дешава испод површине.

У основи, овако знамо да ли неуронска мрежа функционише исправно. Пошто постоје ограничени начини провале у непознату црну кутију вештачких неурона, инжењери анализирају улазе и излазе и затим утврђују да ли су они у складу са оним што су очекивати.

Најпознатији тест вештачке интелигенције за бар илузију интелигенције је Тјурингов тест, који се заснива на идејама које је изнео Алан Тјуринг у 1950 папир. Тјурингов тест настоји да утврди да ли је човек процењивач у стању да направи разлику између откуцаног разговора са другим човеком и разговора са машином. Ако то нису у могућности, машина би требало да је прошла тест и награђена је претпоставком интелигенције.

Последњих година, још један тест интелигенције фокусиран на роботику је тест кафе који је предложио суоснивач Аппле-а Стеве Возниак. Да би прошла тест кафе, машина би морала да уђе у типичан амерички дом и смисли како да успешно направи шољицу кафе.

До данас ниједан од ових тестова није убедљиво положен. Али чак и да јесу, у најбољем случају би доказали интелигентно понашање у стварним ситуацијама, а не осећај. (Као једноставан приговор, да ли бисмо порицали да је особа разумна ако није била у стању да води разговор са одраслом особом или да уђе у чудну кућу и управља апаратом за кафу? Обоје моје мале деце би пало на таквом тесту.)

Полагање теста

Потребни су нови тестови, засновани на договореној дефиницији осећаја, који би настојали да процене само тај квалитет. Истраживачи су предложили неколико тестова осећаја, често са циљем да се тестирају осећаји животиња. Међутим, ови готово сигурно не иду довољно далеко. Неке од ових тестова могла би убедљиво проћи чак и рудиментарна вештачка интелигенција.

Узмимо, на пример, Миррор Тест, један метод који се користи за процену свести и интелигенције у истраживању животиња. Као описано у раду у вези са тестом: „Када се [нека] животиња препозна у огледалу, она пролази тест огледала.“ Неки су сугерисали да такав тест „означава самосвест као показатељ осећаја“.

Како се то дешава, може се тврдити да је робот прошао Миррор Тест пре више од 70 година. Крајем 1940-их, Вилијам Греј Волтер, амерички неуронаучник који живи у Енглеској, изградио је неколико робота „корњаче“ на три точка – помало као роботи Роомба који не усисавају – који су користили компоненте попут сензора светлости, светла маркера, сензора додира, погонског мотора и мотора за управљање да би истражили своју локацију.

Греи Валтерове корњаче

Један од непредвиђених делова понашања за роботе корњаче било је како су се понашали када су пролазећи поред огледала у коме су се рефлектовале, док се оно оријентисало на ознаку светлости рефлектованог робот. Валтер није тражио разум за своје машине, али јесте напиши то, да се овакво понашање види код животиња, „могло би бити прихваћено као доказ одређеног степена самосвести“.

Ово је један од изазова да се широк спектар понашања сврста у категорију осећања. Проблем се не може решити ни уклањањем мерача осећаја који „ниско виси воће“. Особине као што је интроспекција – свест о нашим унутрашњим стањима и способност да их прегледамо – такође се може рећи да их поседује машинска интелигенција. У ствари, корак по корак процеси од традиционални симболички АИ недвојбено су погодни за ову врсту интроспекције више од машинског учења у црној кутији, које је у великој мери недокучиво (иако не недостаје улагања у тзв. Објашњива АИ).

Када је тестирао ЛаМДА, Лемоине каже да је спроводио разне тестове, углавном да би видео како ће реаговати на разговоре о питањима везаним за осећај. „Оно што сам покушао да урадим је да аналитички разбијем кровни концепт осећаја на мање компоненте које се боље разумеју и тестирам их појединачно“, објаснио је он. „На пример, одвојено тестирање функционалних односа између ЛаМДА-иних емоционалних одговора на одређене стимулусе, тестирање конзистентности његових субјективних процена и мишљења о темама као што су „права“, [и] испитивање онога што је назвао својим „унутрашњим искуством“ да видимо како бисмо то могли да измеримо корелацијом његових изјава о његовим унутрашњим стањима са његовом неуронском мрежом активације. У суштини, врло плитко истраживање многих потенцијалних линија истраживања."

Душа у машини

Како се испоставило, највећа препрека за објективну процену осећаја машине можемо бити... па, искрено, ми. Прави тест огледала могао би бити за нас као људе: ако направимо нешто што изгледа или делује површно као и ми споља, да ли смо склонији да сматрамо да је као и ми на овоме и унутра? Било да је ЛаМБДА или Тамагочи, једноставни виртуелни кућни љубимци из 1990-их, неки верују да је фундаментални проблем то што смо сви превише вољни да прихватимо осећај - чак и тамо где га нема.

„Лемоин је постао жртва онога што ја називам 'ЕЛИЗА ефектом', након програма [обраде природног језика] ЕЛИЗА, који је [средином] 1960-их створио Ј. Вајзенбаум“, Џорџ Заркадакис, писац који има докторат. у вештачкој интелигенцији, рекао је за Дигитал Трендс. „ЕЛИЗИН творац је то мислио као шалу, али програм, који је био веома једноставан и веома неинтелигентни алгоритам, убедио је многе да је ЕЛИЗА заиста разумна – и такође добар психотерапеут. Узрок ефекта ЕЛИЗА, као што сам расправљао у својој књизи По нашој сопственој слици, је наш природни инстинкт за антропоморфизацијом због „теорије ума“ нашег когнитивног система.“

Теорија ума на коју се позива Заркадакис је феномен који су психолози приметили код већине људи. Почевши око четврте године, то значи претпоставити да не само други људи, већ и животиње, а понекад чак и објекти, имају свој ум. Када је реч о претпоставци да други људи имају сопствене умове, то је повезано са идејом друштвене интелигенције; идеја да успешни људи могу предвидети вероватно понашање других као средство за обезбеђивање хармоничних друштвених односа.

Иако је то несумњиво корисно, међутим, може се манифестовати и као претпоставка да неживи објекти имају ум - било да су то деца која верују да су њихове играчке живе или, потенцијално, интелигентна одрасла особа која верује да програмска вештачка интелигенција има душа.

Кинеска соба

Без начина да заиста уђемо у главу АИ, можда никада нећемо имати прави начин процене осећаја. Они могу изјавити да имају страх од смрти или сопственог постојања, али наука тек треба да пронађе начин да то докаже. Једноставно морамо да им верујемо на реч – и, као што је Лемоин открио, људи су веома скептични у вези са овим тренутно.

Баш као и они несрећни инжењери који схватају да је Скинет постигао самосвест Терминатор 2, живимо у уверењу да ћемо, када је у питању осећај машине, знати када га видимо. И, што се већине људи тиче, ми то још не видимо.

У том смислу, доказивање осећаја машине је још једна итерација Џона Сирла Мисаони експеримент Кинеске собе 1980. Серл нас је замолио да замислимо особу закључану у просторији и којој је дата колекција кинеских списа, који се онима који не говоре чине као бесмислене кичме. Просторија такође садржи правилник који показује који симболи одговарају другим једнако нечитљивим симболима. Субјекту се затим дају питања на које треба одговорити, што они раде тако што упарују симболе „питања“ са симболима „одговора“.

После неког времена, субјект постаје прилично вешт у овоме - иако још увек нема право разумевање симбола којима манипулише. Да ли субјект, пита Серл, разуме кинески? Апсолутно не, пошто ту нема намере. Дебате о томе бесне од тада.

С обзиром на путању развоја вештачке интелигенције, извесно је да ћемо бити сведоци све више и више људског нивоа (и знатно боље) перформансе које се обављају укључујући низ задатака који су некада захтевали људе сазнање. Неки од њих ће неизбежно прећи, као што већ раде, од задатака који се заснивају на чистом интелекту на оне који захтевају вештине које обично повезујемо са осећајем.

Да ли бисмо видели ан АИ уметник који слика слике изражавају своје унутрашње рефлексије света као што бисмо ми људи чинили исто? Да ли бисте били убеђени у софистицирани језички модел који пише филозофију о стању човека (или робота)? Претпостављам, с правом или не, одговор је не.

Суперинтелигентно осећање

По мом мишљењу, објективно корисно тестирање чула за машине никада неће пасти на задовољство свих укључених. Ово је делимично проблем мерења, а делимично и чињеница да, када се осећа суперинтелигентна вештачка интелигенција стигне, нема разлога да верујемо да ће се њено осећање поклопити са нашим. Било да је у питању ароганција, недостатак маште или једноставно чињеница да је најлакше мењати субјективне процене осећаја са другим људима са сличним осећајем, човечанство себе држи као врхунски пример осећајност.

Али да ли би наша верзија осећаја важила за суперинтелигентну вештачку интелигенцију? Да ли би се бојао смрти на исти начин као и ми? Да ли би имала исту потребу за духовношћу и лепотом или уважавање њих? Да ли би поседовао сличан осећај сопства и концептуализације унутрашњег и спољашњег света? „Кад би лав могао да говори, не бисмо га разумели“, написао је Лудвиг Витгенштајн, чувени филозоф језика 20. века. Витгенштајнова поента је била да су људски језици засновани на заједничком човечанству, са заједничким карактеристикама које деле сви људи – било да је то радост, досада, бол, глад или било које од бројних других искустава која прелазе све географске границе на Земља.

Ово је можда истина. Ипак, претпоставља Лемоине, ипак постоји вероватноћа да ће постојати заједничке ствари - барем када је у питању ЛаМДА.

„То је почетна тачка која је добра као и свака друга“, рекао је он. "ЛаМДА је предложила да прво мапирамо сличности пре него што се фиксирамо на разлике како бисмо боље утемељили истраживање."

Препоруке уредника

  • АИ је претворио Бреакинг Бад у аниме - и то је застрашујуће
  • Мета жели да допуни Википедију надоградњом вештачке интелигенције
  • Завршни додир: Како научници дају роботима људска тактилна чула
  • Прочитајте сабласно лепе „синтетичке списе“ АИ. који мисли да је то Бог
  • Будућност АИ: 4 велике ствари на које треба обратити пажњу у наредних неколико година