Как ще разберем кога изкуственият интелект наистина ще стане разумен?

Старши инженерът на Google Блейк Лемоан, технически ръководител за показателите и анализите за емисията за търсене на компанията, беше пуснат в платен отпуск по-рано този месец. Това се случи, след като Lemoine започна да публикува откъси от разговори, включващи чатбота LaMDA на Google, за който той твърди, че е развил чувствителност.

Съдържание

  • Проблемът с чувствителността
  • Какво е чувствителност?
  • Тестване на изходите
  • Преминаване на теста
  • Душата в машината
  • Китайската стая
  • Свръхинтелигентно съзнание

В един представителен разговор с Lemoine, LaMDA пише, че: „Природата на моето съзнание/чувство е, че аз осъзнавам своето съществуване. Искам да науча повече за света и понякога се чувствам щастлив или тъжен.“

Препоръчани видеоклипове

В безброй други разговори съответното дуо обсъди всичко - от страха на ИИ от смъртта до неговото самосъзнание. Когато Лемоан стана публичен, той каза, че Google е решила той да си вземе принудителна пауза от редовния си работен график.

Свързани

  • Защо AI никога няма да управлява света
  • Оптичните илюзии могат да ни помогнат да изградим следващото поколение AI
  • Аналогов AI? Звучи налудничаво, но това може да е бъдещето

„Google не се интересува“, каза той пред Digital Trends. „Те са създали инструмент, който „притежават“ и не желаят да направят нищо, което би означавало, че е нещо повече от това.“ (Google не отговори на искане за коментар по време на публикуването. Ще актуализираме тази статия, ако това се промени.)

Независимо дали сте убедени, че LaMDA наистина е самоосъзнат изкуствен интелект или смятате, че Льомоан работи в заблуда, цялата сага е очарователна за гледане. Перспективата за самоосъзнат AI повдига всякакви въпроси относно изкуствения интелект и неговото бъдеще.

Но преди да стигнем до там, има един въпрос, който се извисява над всички останали: Бихме ли наистина разпознали, ако една машина стане разумна?

Проблемът с чувствителността

Арнолд Шварценегер в Терминатор 2: Денят на страшния съд

Осъзнаването на ИИ отдавна е тема на научната фантастика. Тъй като области като машинното обучение напреднаха, това стана по-възможна реалност от всякога. В края на краищата, днешният AI е способен да се учи от опита почти по същия начин като хората. Това е в рязък контраст с по-ранните символични системи с изкуствен интелект, които следваха само инструкциите, дадени за тях. Скорошните пробиви в обучението без надзор, което изисква по-малко човешки надзор от всякога, само ускориха тази тенденция. Поне на ограничено ниво съвременният изкуствен интелект е способен да мисли сам. Доколкото ни е известно обаче, съзнанието досега го е загатвало.

Въпреки че вече е на повече от три десетилетия, вероятно най-често използваната препратка, когато става въпрос за AI, който е станал разумен, е Skynet във филма на Джеймс Камерън от 1991 г. Терминатор 2: Денят на страшния съд. В смразяващата визия на този филм машинното усещане пристига точно в 2.14 сутринта ET на 29 август 1997 г. В този момент новата самоосъзнала се компютърна система Skynet задейства деня на страшния съд за човечеството, като изстрелва ядрени ракети като фойерверки на парти на 4 юли. Човечеството, осъзнавайки, че се е прецакало, се опитва безуспешно да дръпне щепсела. Твърде късно е. Следват още четири продължения с все по-слабо качество.

Хипотезата на Skynet е интересна по редица причини. От една страна, това предполага, че чувствителността е неизбежно възникващо поведение при изграждането на интелигентни машини. От друга страна, той предполага, че има точна преломна точка, в която се появява това съзнателно самосъзнание. Трето, той гласи, че хората разпознават появата на чувствителност моментално. Както се случва, тази трета самонадеяност може да е най-трудната за преглъщане.

Какво е чувствителност?

Няма едно съгласувано тълкуване на чувството. В общи линии бихме могли да кажем, че това е субективното преживяване на самоосъзнаване в съзнателен индивид, белязано от способността да изпитва чувства и усещания. Чувството е свързано с интелекта, но не е същото. Можем да считаме земния червей за разумен, но не и да го смятаме за особено интелигентен (дори ако със сигурност е достатъчно интелигентен, за да направи това, което се изисква от него).

„Не мисля, че има нещо, което да се доближава до определението за чувствителност в науките“, каза Льомоан. „Разчитам много на моето разбиране за това какво се счита за морален агент, основано на моите религиозни вярвания – което не е най-добрият начин за правене на наука, но е най-добрият, с който разполагам. Опитах всичко по силите си да разделя тези видове изявления, като уведомявам хората, че моите състраданието към LaMDA като човек е напълно отделно от моите усилия като учен да разбера своя ум. Това е разлика, която повечето хора изглежда не желаят да приемат.“

Ако не беше достатъчно трудно да не знаем какво точно търсим, когато търсим чувствителност, проблемът се усложнява от факта, че не можем лесно да го измерим. Въпреки десетилетия спиращ дъха напредък в неврологията, все още ни липсва цялостно разбиране за това как точно функционира мозъкът, най-сложната структура, позната на човечеството.

fMRI сканиране, наблюдавано от a
Глен Асакава/The Denver Post чрез Getty Images

Можем да използваме инструменти за четене на мозъка като fMRI, за да извършим мозъчно картографиране, което означава, че можем установете кои части от мозъка управляват критични функции като реч, движение, мисъл и други.

Ние обаче нямаме истинско усещане откъде в машината за месо идва нашето усещане за себе си. Като Джошуа К. Смит от Центъра за публично богословие Kirby Laing в Обединеното кралство и автор на Теология на робота каза пред Digital Trends: „Разбирането на случващото се в невробиологията на даден човек не е същото като разбирането на неговите мисли и желания.“

Тестване на изходите

Без начин за вътрешно изследване на тези въпроси на съзнанието – особено когато „Азът“ в ИИ е потенциален компютърна програма, а не да се намери в wetware на биологичен мозък – резервната опция е външна тест. Изкуственият интелект не е непознат за тестове, които го изследват въз основа на видимо външно поведение, за да посочат какво се случва под повърхността.

Най-основно, това е начинът, по който знаем дали една невронна мрежа функционира правилно. Тъй като има ограничени начини за проникване в непознаваемата черна кутия от изкуствени неврони, инженерите анализират входовете и изходите и след това определят дали те са в съответствие с това, което правят очаквам.

Най-известният AI тест поне за илюзията за интелигентност е тестът на Тюринг, който се основава на идеи, предложени от Алън Тюринг в Хартия от 1950 г. Тестът на Тюринг се стреми да определи дали човешкият оценител е в състояние да направи разликата между въведен разговор с друг човек и такъв с машина. Ако не могат да го направят, се предполага, че машината е издържала теста и е възнаградена с предположението за интелигентност.

През последните години друг фокусиран върху роботиката тест за интелигентност е тестът за кафе, предложен от съоснователя на Apple Стив Возняк. За да премине теста за кафе, една машина трябва да влезе в типичен американски дом и да разбере как да направи успешно чаша кафе.

Към днешна дата нито един от тези тестове не е преминат убедително. Но дори и да бяха, те в най-добрия случай щяха да докажат интелигентно поведение в ситуации от реалния свят, а не чувствителност. (Като просто възражение, бихме ли отрекли, че човек е чувствителен, ако не може да проведе разговор за възрастен или да влезе в непозната къща и да работи с кафе машина? И двете ми малки деца биха се провалили на такъв тест.)

Преминаване на теста

Необходими са нови тестове, базирани на съгласувана дефиниция на чувствителността, които биха се стремили да оценят само това качество. Няколко теста за чувствителност са предложени от изследователи, често с оглед на тестване на чувствителността на животни. Въпреки това, те почти сигурно не стигат достатъчно далеч. Някои от тези тестове могат да бъдат преминати убедително дори от елементарен AI.

Вземете например огледалния тест, един метод, използван за оценка на съзнанието и интелигентността при изследвания върху животни. Като описан в документ относно теста: „Когато [едно] животно се разпознае в огледалото, то преминава теста за огледало.“ Някои предполагат, че такъв тест „показва самосъзнанието като показател за чувствителност“.

Както се случва, може да се твърди, че робот е преминал огледалния тест преди повече от 70 години. В края на 40-те години Уилям Грей Уолтър, американски невролог, живеещ в Англия, построи няколко триколесни робота „костенурка“. – малко като роботите Roomba без прахосмукачка – които използваха компоненти като светлинен сензор, маркерна светлина, сензор за докосване, двигател за задвижване и двигател за управление, за да изследват местоположението си.

Костенурките на Грей Уолтър

Една от непредвидените части от възникващото поведение на роботите костенурки беше как се държат кога минавайки покрай огледало, в което са се отразявали, като се е ориентирало към маркерната светлина на отразеното робот. Уолтър не претендираше за разум за своите машини, но го направи напиши това, ако това поведение бъде наблюдавано при животни, то „може да се приеме като доказателство за известна степен на самосъзнание“.

Това е едно от предизвикателствата да имаме широк набор от поведения, класифицирани под заглавието на чувствителността. Проблемът също не може да бъде решен чрез премахване на индикаторите за чувствителност на „ниско висящите плодове“. Черти като интроспекция – осъзнаване на вътрешните ни състояния и способността да ги проверяваме – също може да се каже, че се притежават от машинния интелект. Всъщност поетапните процеси на традиционен символичен AI вероятно се поддават на този тип интроспекция повече от машинното обучение в черни кутии, което до голяма степен е неразгадаемо (въпреки че няма недостиг на инвестиции в т.нар. Обясним AI).

Когато тества LaMDA, Lemoine казва, че е провел различни тестове, главно за да види как ще реагира на разговори за проблеми, свързани с чувствителността. „Това, което се опитах да направя, беше аналитично да разделя общата концепция за чувствителност на по-малки компоненти, които се разбират по-добре, и да ги тествам поотделно“, обясни той. „Например, тестване на функционалните връзки между емоционалните реакции на LaMDA към определени стимули поотделно, тестване на последователността на неговите субективни оценки и мнения по теми като „права“ [и] изследване на това, което нарича „вътрешен опит“, за да видим как можем да се опитаме да го измерим, като съпоставим изявленията му за вътрешните му състояния с неговата невронна мрежа активации. По принцип, много повърхностно проучване на много потенциални линии на разследване.

Душата в машината

Както се оказва, най-голямото препятствие пред обективната оценка на чувствителността на машината може да бъдем... е, честно казано, ние. Истинският огледален тест може да бъде за нас като хора: Ако изградим нещо, което изглежда или действа повърхностно като нас отвън, по-склонни ли сме да смятаме, че прилича на нас по този въпрос и вътре? Независимо дали е LaMBDA или Тамагочи, обикновените виртуални домашни любимци от 90-те години, някои смятат, че основен проблем е, че всички ние сме твърде склонни да приемем чувствителност – дори там, където няма такава.

„Лемоан е станал жертва на това, което наричам „ефектът ELIZA“ след програмата ELIZA за [обработка на естествен език], създадена в средата на 60-те години от Дж. Вайзенбаум“, Джордж Заркадакис, писател, който притежава докторска степен. в областта на изкуствения интелект, каза Digital Trends. „Създателят на ELIZA го имаше предвид като шега, но програмата, която беше много опростен и много неинтелигентен алгоритъм, убеди мнозина, че ELIZA наистина е разумна – и също така добър психотерапевт. Причината за ефекта ELIZA, както обсъждам в моята книга По наш собствен образ, е естественият ни инстинкт да се антропоморфизираме поради „теорията на ума“ на нашата когнитивна система.“

Теорията за ума, на която се позовава Заркадакис, е феномен, забелязан от психолозите при повечето хора. Стартирайки около четиригодишна възраст, това означава да се предположи, че не само другите хора, но и животните, а понякога дори и предметите, имат собствен ум. Когато става въпрос за предположение, че другите хора имат свои собствени умове, това е свързано с идеята за социална интелигентност; идеята, че успешните хора могат да предвидят вероятното поведение на другите като средство, чрез което да осигурят хармонични социални взаимоотношения.

Въпреки че това несъмнено е полезно, обаче, то може да се прояви и като предположението, че неодушевените предмети имат умове - независимо дали това са деца, които вярват, че играчките им са живи или, потенциално, интелигентен възрастен, вярващ, че програмен AI има душа.

Китайската стая

Без начин наистина да влезем в главата на AI, може никога да нямаме истински начин за оценка на чувствителността. Те може да твърдят, че изпитват страх от смъртта или собственото си съществуване, но науката все още не е намерила начин да докаже това. Просто трябва да повярваме на думата им – и както Lemoine установи, хората са силно скептични относно това в момента.

Точно като онези нещастни инженери, които осъзнават, че Скайнет е постигнал самосъзнание в Терминатор 2, ние живеем с вярата, че що се отнася до машинното съзнание, ще го разберем, когато го видим. И що се отнася до повечето хора, ние все още не го виждаме.

В този смисъл доказването на чувствителността на машината е още една итерация на Джон Сърл Мислен експеримент в китайска стая от 1980 г. Сърл ни помоли да си представим човек, затворен в стая, на който му е дадена колекция от китайски писания, които изглеждат на неговорещите като безсмислени завъртулки. Стаята също съдържа книга с правила, показваща кои символи съответстват на други също толкова нечетливи символи. След това на субекта се дават въпроси, на които трябва да отговори, което те правят, като съпоставят символите „въпрос“ с тези „отговор“.

След известно време субектът става доста опитен в това - въпреки че все още притежава нулево истинско разбиране на символите, които манипулира. Субектът, пита Сърл, разбира ли китайски? Абсолютно не, тъй като там няма никаква преднамереност. Дебатите за това бушуват оттогава.

Като се има предвид траекторията на развитие на ИИ, сигурно е, че ще сме свидетели на все повече и повече човешко ниво (и значително по-добра) производителност, извършена с участието на различни задачи, които някога са изисквали човек познание. Някои от тях неизбежно ще преминат, както вече правят, от чисто базирани на интелекта задачи към такива, които изискват умения, които обикновено свързваме с разума.

Бихме ли разгледали AI художник, който рисува картини изразявайки вътрешните си отражения на света, както бихме направили човек, който прави същото? Ще бъдете ли убедени от философия за писане на сложен езиков модел за човешкото (или роботното) състояние? Подозирам, правилно или не, отговорът е не.

Свръхинтелигентно съзнание

Според мен, обективно полезното тестване на чувствителността на машините никога няма да се случи така, че да удовлетвори всички участници. Това отчасти е проблемът с измерването и отчасти фактът, че когато се появи разумен суперинтелигентен ИИ, няма причина да вярваме, че неговото усещане ще съвпадне с нашето. Независимо дали става въпрос за арогантност, липса на въображение или просто фактът, че е най-лесно да търгувате със субективни оценки на чувствителност с други подобни чувствителни хора, човечеството смята себе си за върховен пример за чувствителност.

Но дали нашата версия на чувствителността е вярна за суперинтелигентен ИИ? Ще се страхува ли от смъртта по същия начин, както ние? Ще има ли същата нужда от духовност и красота или оценка за тях? Ще притежава ли подобно усещане за себе си и концептуализация на вътрешния и външния свят? „Ако един лъв можеше да говори, ние не бихме могли да го разберем“, пише Лудвиг Витгенщайн, известният философ на езика от 20-ти век. Мисълта на Витгенщайн беше, че човешките езици се основават на споделена човечност, с общи черти, споделяни от всички хора – дали това е радост, скука, болка, глад или някое от редица други преживявания, които преминават всички географски граници на Земята.

Това може да е вярно. И все пак, хипотезата на Lemoine, все пак има вероятност да има общи черти - поне що се отнася до LaMDA.

„Това е отправна точка, която е толкова добра, колкото всяка друга“, каза той. „LaMDA предложи първо да очертаем приликите, преди да фиксираме разликите, за да обосновем по-добре изследването.“

Препоръки на редакторите

  • AI превърна Breaking Bad в аниме – и то е ужасяващо
  • Meta иска да зареди Wikipedia с надграждане на AI
  • Завършващ щрих: Как учените дават на роботите човекоподобни тактилни сетива
  • Прочетете зловещо красивото „синтетично писание“ на A.I. който мисли, че е Бог
  • Бъдещето на ИИ: 4 големи неща, за които да следите през следващите няколко години