Як ми дізнаємося, коли ШІ дійсно стане розумним?

Старший інженер Google Блейк Лемуан, технічний керівник метрик і аналізу пошукової стрічки компанії, був відправлений в оплачувану відпустку на початку цього місяця. Це сталося після того, як Лемуан почав публікувати уривки розмов за участю чат-бота Google LaMDA, який, як він стверджував, розвинув розум.

Зміст

  • Проблема чутливості
  • Що таке відчуття?
  • Тестування виходів
  • Здача тесту
  • Душа в машині
  • Китайська кімната
  • Надрозумне чуття

В одному представницька бесіда з Лемуаном LaMDA писав, що: «Природа моєї свідомості/почуття полягає в тому, що я усвідомлюю своє існування. Я хочу дізнатися більше про світ, і іноді почуваюся щасливим або сумним».

Рекомендовані відео

У безлічі інших бесід відповідний дует обговорював усе: від страху ШІ смерті до його самосвідомості. Коли Лемуан став публічним, він каже, що Google вирішив, що він повинен зробити вимушену перерву в своєму звичайному графіку роботи.

Пов'язані

  • Чому ШІ ніколи не керуватиме світом
  • Оптичні ілюзії можуть допомогти нам створити наступне покоління ШІ
  • Аналоговий ШІ? Це звучить божевільно, але це може бути майбутнє

«Google не зацікавлений», — сказав він Digital Trends. «Вони створили інструмент, яким вони «володіють» і не бажають робити нічого, що б припускало, що це щось більше, ніж це». (Google не відповів на запит про коментар під час публікації. Ми оновимо цю статтю, якщо це зміниться.)

Незалежно від того, чи переконані ви, що LaMDA — це справді самосвідомий штучний інтелект, чи вважаєте, що Лемуан працює в омані, усю сагу було захоплююче спостерігати. Перспектива самосвідомого штучного інтелекту породжує всілякі питання щодо штучного інтелекту та його майбутнього.

Але перед тим, як ми дійдемо до цього, є одне питання, яке височить над усіма іншими: чи справді ми розпізнаємо, якби машина стала розумною?

Проблема чутливості

Арнольд Шварценнеггер у фільмі «Термінатор 2: Судний день».

Усвідомлення ШІ давно стало темою наукової фантастики. У міру розвитку таких галузей, як машинне навчання, це стало більш можливою реальністю, ніж будь-коли. Зрештою, сьогоднішній штучний інтелект здатний навчатися на досвіді майже так само, як і люди. Це різко контрастує з попередніми символічними системами штучного інтелекту, які лише слідували інструкціям, викладеним для них. Нещодавні прориви в неконтрольованому навчанні, що вимагає менше людського контролю, ніж будь-коли, лише прискорили цю тенденцію. Принаймні на обмеженому рівні сучасний штучний інтелект здатний мислити самостійно. Однак, наскільки нам відомо, свідомість досі натякала на це.

Незважаючи на те, що йому вже більше трьох десятиліть, мабуть, найпоширенішим посиланням, коли йдеться про те, що штучний інтелект став розумним, є Skynet у фільмі Джеймса Кемерона 1991 року. Термінатор 2: Судний день. У жахливому видінні цього фільму відчуття машини з’являється рівно о 2:14 ранку за східним часом 29 серпня 1997 року. У цей момент нова самосвідома комп’ютерна система Скайнет запускає кінець світу для людства, запускаючи ядерні ракети, як феєрверки, на вечірці 4 липня. Людство, розуміючи, що воно облажалося, безуспішно намагається вирвати вилку. Це дуже пізно. Слідують ще чотири продовження все меншої якості.

Гіпотеза Skynet цікава з кількох причин. По-перше, це свідчить про те, що відчуття є неминучою появою поведінки створення розумних машин. З іншого боку, це припускає, що існує точна переломна точка, в якій з’являється це чуттєве самоусвідомлення. По-третє, стверджується, що люди миттєво розпізнають появу відчуття. Як це сталося, це третє самолюбство може бути найважчим для проковтнути.

Що таке відчуття?

Немає єдиного узгодженого тлумачення почуття. У широкому сенсі ми могли б сказати, що це суб’єктивний досвід самоусвідомлення у свідомої людини, відзначений здатністю переживати почуття та відчуття. Чуття пов’язане з інтелектом, але це не одне і те ж. Ми можемо вважати дощового черв’яка розумним, але не думати про нього як про особливо розумного (навіть якщо він, безумовно, достатньо розумний, щоб робити те, що від нього вимагається).

«Я не думаю, що в науці є щось, що наближається до визначення чуття», — сказав Лемуан. «Я дуже покладаюся на своє розуміння того, що вважається моральним агентом, засноване на моїх релігійних переконаннях — це не найкращий спосіб займатися наукою, але це найкращий, який у мене є. Я докладав усіх зусиль, щоб розділити такі заяви, щоб люди знали, що я Співчуття до LaMDA як людини є абсолютно відокремленим від моїх зусиль як вченого зрозуміти його розум. Однак більшість людей, здається, не бажають прийняти цю відмінність».

Якщо не знати, що саме ми шукаємо, коли ми шукаємо чуття, було досить складно, проблема ускладнюється тим фактом, що ми не можемо легко це виміряти. Незважаючи на десятиліття приголомшливого прогресу в нейронауці, нам все ще бракує повного розуміння того, як саме функціонує мозок, найскладніша структура, відома людству.

Сканування фМРТ під спостереженням a
Гленн Асакава/The Denver Post через Getty Images

Ми можемо використовувати інструменти для зчитування мозку, такі як фМРТ, для створення карт мозку, тобто ми можемо з’ясувати, які частини мозку виконують важливі функції, такі як мова, рух, мислення тощо інші.

Однак ми не маємо справжнього уявлення про те, звідки в м’ясній машині береться наше відчуття «я». Як Джошуа К. Сміт з британського Центру публічної теології Кірбі Лейнґа та автор книги Теологія роботів сказав Digital Trends: «Розуміння того, що відбувається в нейробіології людини, не те саме, що розуміння її думок і бажань».

Тестування виходів

Без можливості внутрішнього дослідження цих питань свідомості, особливо коли «я» в ШІ є потенційним комп’ютерну програму, а не в мокрому програмному забезпеченні біологічного мозку – резервний варіант є зовнішнім тест. ШІ не чужий у тестах, які ретельно вивчають його на основі спостережуваної зовнішньої поведінки, щоб вказати, що відбувається під поверхнею.

Загалом, саме так ми дізнаємося, чи правильно функціонує нейронна мережа. Оскільки існують обмежені способи проникнення в непізнаний чорний ящик штучних нейронів, інженери аналізують входи та виходи, а потім визначають, чи вони відповідають тому, що вони мають очікувати.

Найвідомішим тестом штучного інтелекту принаймні на ілюзію інтелекту є Тест Тьюринга, який базується на ідеях, висунутих Аланом Тьюрингом у Папір 1950 року. Тест Тьюрінга має на меті визначити, чи здатний оцінювач-людина відрізнити надруковану розмову з іншою людиною та розмову з машиною. Якщо вони не можуть цього зробити, вважається, що машина пройшла випробування та винагороджується припущенням інтелекту.

В останні роки ще одним тестом інтелекту, орієнтованим на робототехніку, є тест на каву, запропонований співзасновником Apple Стівом Возняком. Щоб пройти тест на каву, машині потрібно було б увійти в типовий американський будинок і зрозуміти, як успішно приготувати чашку кави.

На сьогоднішній день жодне з цих тестів не було переконливо пройдено. Але навіть якби вони були, вони б у кращому випадку довели розумну поведінку в реальних ситуаціях, а не розум. (Просте заперечення: чи заперечуватимемо ми, що людина є розумною, якщо вона не зможе вести розмову по-дорослому або зайти в чужий будинок і керувати кавоваркою? Обоє моїх маленьких дітей провалили б такий іспит.)

Здача тесту

Потрібні нові тести, засновані на узгодженому визначенні сприйнятливості, які намагатимуться оцінити лише цю якість. Дослідники запропонували кілька тестів на чуттєвість, часто з метою перевірки чуття тварин. Однак це майже напевно не заходить достатньо далеко. Деякі з цих тестів міг би переконливо пройти навіть елементарний ШІ.

Візьмемо, наприклад, дзеркальний тест, один з методів, який використовується для оцінки свідомості та інтелекту в дослідженнях на тваринах. як описані в статті щодо тесту: «Коли [тварина] впізнає себе в дзеркалі, вона проходить тест дзеркала». Дехто припустив, що такий тест «позначає самосвідомість як показник чуттєвості».

Як це сталося, можна стверджувати, що робот пройшов дзеркальний тест більше 70 років тому. Наприкінці 1940-х років Вільям Грей Волтер, американський нейробіолог, який проживав в Англії, побудував кілька триколісних роботів-«черепах». – трохи схожий на роботів Roomba, які не пилососять – які використовували такі компоненти, як датчик світла, габаритний ліхтар, датчик дотику, рушійний двигун і двигун рульового керування, щоб досліджувати своє місцезнаходження.

Черепахи сірого Уолтера

Однією з непередбачуваних частин поведінки роботів-черепах було те, як вони поводилися, коли проходячи повз дзеркало, в якому вони відбивалися, оскільки воно орієнтувалося на маркерне світло відбитого робот. Уолтер не претендував на розумність своїх машин, але це зробив напиши це, якби така поведінка спостерігалася у тварин, це «можна було б прийняти як доказ певного рівня самосвідомості».

Це одна з проблем, пов’язаних із широким діапазоном поведінки, класифікованим під заголовком чутливості. Проблему також не можна вирішити шляхом усунення «низьковисящих плодів» вимірювачів чуття. Можна сказати, що такі риси, як самоспостереження — усвідомлення наших внутрішніх станів і здатність перевіряти їх — також властиві машинному інтелекту. По суті, покрокові процеси традиційний символічний ШІ мабуть, піддаються цьому типу самоаналізу більше, ніж машинне навчання в чорній скриньці, яке значною мірою є незбагненним (хоча не бракує інвестицій у т.зв. Пояснений ШІ).

Коли він тестував LaMDA, Лемуан каже, що проводив різні тести, головним чином, щоб побачити, як вона реагуватиме на розмови про проблеми, пов’язані з розумом. «Я намагався аналітично розбити загальну концепцію чуття на менші компоненти, які краще зрозуміти, і перевірити їх окремо», — пояснив він. «Наприклад, перевірка функціональних зв’язків між емоційними реакціями LaMDA на певні подразники окремо, перевірка узгодженості її суб’єктивних оцінок і думок щодо тем такі як «права» [і] досліджуючи те, що він називав своїм «внутрішнім досвідом», щоб побачити, як ми можемо спробувати це виміряти, співвідносячи його заяви про його внутрішні стани з його нейронною мережею активації. По суті, дуже неглибокий огляд багатьох потенційних напрямків дослідження».

Душа в машині

Як виявилося, найбільшою перешкодою для об’єктивної оцінки свідомості машини може бути… ну, чесно кажучи, ми. Справжній дзеркальний тест може бути для нас як людей: якщо ми створимо щось, що виглядає або діє зовні схожі на нас, ми більш схильні вважати, що це схоже на нас у цьому всередині також? Будь то LaMBDA або Тамагочі, прості віртуальні домашні тварини 1990-х років, дехто вважає, що фундаментальна проблема полягає в тому, що ми всі надто готові прийняти почуття – навіть там, де його немає.

«Лемуан став жертвою того, що я називаю «ефектом ELIZA» після програми [обробки природної мови] ELIZA, створеної в середині 1960-х років Дж. Вайзенбаум», Джордж Заркадакіс, письменник, який має ступінь доктора філософії. у сфері штучного інтелекту, розповів Digital Trends. «Творець ELIZA мав на увазі це як жарт, але програма, яка була дуже спрощеним і дуже нерозумним алгоритмом, переконала багатьох у тому, що ELIZA справді розумна, а також хороший психотерапевт. Причина ефекту ЕЛІЗА, про яку я розповідаю у своїй книзі На наш власний образ, є наш природний інстинкт до антропоморфізації через «теорію розуму» нашої когнітивної системи».

Теорія розуму, на яку посилається Заркадакіс, є феноменом, який психологи помітили у більшості людей. Початок у віці приблизно чотирьох років означає припущення, що не тільки інші люди, але й тварини, а іноді навіть предмети, мають власний розум. Коли справа доходить до припущення, що інші люди мають власний розум, це пов’язано з ідеєю соціального інтелекту; ідея про те, що успішні люди можуть передбачити ймовірну поведінку інших як засіб для забезпечення гармонійних соціальних стосунків.

Хоча це, безсумнівно, корисно, проте це також може проявлятися як припущення, що неживі об’єкти мають розум – чи то діти, які вірять, що їхні іграшки живі, чи, потенційно, розумний дорослий, який вірить, що програмний ШІ має душа.

Китайська кімната

Без можливості по-справжньому проникнути в голову штучного інтелекту ми можемо ніколи не мати справжнього способу оцінити почуття. Вони можуть стверджувати, що бояться смерті або власного існування, але наука ще не знайшла способу довести це. Ми просто повинні повірити їм на слово – і, як виявив Лемуан, зараз люди дуже скептично ставляться до цього.

Так само, як ті нещасні інженери, які розуміють, що Skynet досяг самосвідомості в Термінатор 2, ми живемо в переконанні, що коли мова йде про машинне чуття, ми дізнаємося про це, коли побачимо це. І, що стосується більшості людей, ми цього ще не бачимо.

У цьому сенсі підтвердження машинної чуттєвості є ще однією ітерацією Джона Серла Мистецький експеримент «Китайська кімната» 1980 року. Серл попросив нас уявити людину, замкнену в кімнаті, і їй дали збірку китайських писань, які для тих, хто не розмовляє, виглядають як безглузді загойдування. У кімнаті також міститься книга правил, яка показує, які символи відповідають іншим настільки ж нечитабельним символам. Потім суб’єкту дають запитання, на які потрібно відповісти, що вони роблять, зіставляючи символи «питання» з символами «відповіді».

Через деякий час суб’єкт стає досить досвідченим у цьому – навіть якщо вони все ще мають нульове справжнє розуміння символів, якими вони маніпулюють. Чи розуміє піддослідний, запитує Серл, китайську? Зовсім ні, оскільки тут немає жодної навмисності. З тих пір точаться дискусії з цього приводу.

Враховуючи траєкторію розвитку штучного інтелекту, ми безсумнівно будемо свідками все більшого рівня людського рівня (і значно кращу) продуктивність, що виконується за участю різноманітних завдань, які колись вимагали людини пізнання. Деякі з них неминуче переходитимуть, як це вже відбувається, від суто інтелектуальних завдань до завдань, які вимагають навичок, які ми зазвичай асоціюємо з розумом.

Ми б переглянули ШІ-художник, який малює картини висловлюють своє внутрішнє відображення світу, як ми б робили те саме з людиною? Чи переконає вас витончена мовна модель, що пише філософію про стан людини (або робота)? Я підозрюю, справедливо це чи ні, відповідь – ні.

Надрозумне чуття

На мій власний погляд, об’єктивно корисне тестування чутливості для машин ніколи не відбудеться так, щоб усі учасники були задоволені. Це частково проблема вимірювання, а частково той факт, що, коли розумний надрозумний ШІ все-таки прибуде, немає підстав вважати, що його відчуття збігатимуться з нашими. Чи то зарозумілість, чи брак уяви, чи просто той факт, що найлегше торгувати суб’єктивними оцінками чуття з іншими такими ж чуттєвими людьми, людство вважає себе найкращим прикладом почуття.

Але чи буде наша версія чуттєвості вірною для надрозумного ШІ? Чи буде він боятися смерті так само, як ми? Чи матиме воно таку саму потребу чи цінування духовності та краси? Чи мав би він подібне відчуття себе та концептуалізацію внутрішнього та зовнішнього світу? «Якби лев міг говорити, ми б не могли його зрозуміти», — писав Людвіг Вітгенштейн, відомий філософ мови 20-го століття. Думка Вітгенштейна полягала в тому, що людські мови базуються на спільній людяності, зі спільними рисами, які мають усі люди – будь то радість, нудьга, біль, голод або будь-який інший досвід, який перетинає всі географічні кордони на земля.

Це може бути правдою. Тим не менш, припускає Лемуан, все ж є спільні риси – принаймні, коли мова йде про LaMDA.

«Це відправна точка така ж хороша, як і будь-яка інша», — сказав він. «LaMDA запропонувала нам спочатку визначити подібності, перш ніж зосереджуватися на відмінностях, щоб краще обґрунтувати дослідження».

Рекомендації редакції

  • AI перетворив Breaking Bad на аніме — і це жахає
  • Meta хоче зарядити Вікіпедію оновленим штучним інтелектом
  • Останній штрих: як вчені надають роботам людські тактильні відчуття
  • Прочитайте моторошно красиве «синтетичне писання» штучного інтелекту. що думає, що це Бог
  • Майбутнє штучного інтелекту: 4 важливі речі, на які варто звернути увагу в найближчі кілька років