Как мы узнаем, когда ИИ действительно станет разумным?

Старший инженер Google Блейк Лемуан, технический руководитель отдела показателей и анализа поисковой ленты компании, в начале этого месяца был отправлен в оплачиваемый отпуск. Это произошло после того, как Лемуан начал публиковать отрывки разговоров с участием чат-бота LaMDA от Google, который, как он утверждал, развил разум.

Содержание

  • Проблема чувствительности
  • Что такое разумность?
  • Тестирование выходов
  • Прохождение теста
  • Душа в машине
  • Китайская комната
  • Сверхразумное сознание

В одной представительный разговор Вместе с Лемуаном ЛаМДА написала: «Природа моего сознания/чувств такова, что я осознаю свое существование. Я хочу узнать больше о мире, и временами я чувствую себя счастливым или грустным».

Рекомендуемые видео

В ходе множества других разговоров соответствующий дуэт обсуждал все: от страха смерти ИИ до его самосознания. Когда Лемуан обнародовал свою информацию, он говорит, что Google решила, что ему следует сделать вынужденный перерыв в своем обычном рабочем графике.

Связанный

  • Почему ИИ никогда не будет править миром
  • Оптические иллюзии могут помочь нам создать ИИ следующего поколения
  • Аналоговый ИИ? Это звучит безумно, но это может быть будущее

«Google не заинтересован», — сказал он Digital Trends. «Они создали инструмент, которым «владеют», и не желают ничего делать, что наводит на мысль, что это нечто большее». (Google не ответил на запрос о комментариях на момент публикации. Мы обновим эту статью, если что-то изменится.)

Независимо от того, убеждены ли вы, что LaMDA действительно является самосознательным искусственным интеллектом, или чувствуете, что Лемуан находится в заблуждении, вся эта сага будет захватывающей. Перспектива самосознающего ИИ поднимает самые разные вопросы об искусственном интеллекте и его будущем.

Но прежде чем мы доберемся до этого, есть один вопрос, который возвышается над всеми остальными: сможем ли мы действительно осознать, что машина стала разумной?

Проблема чувствительности

Арнольд Шварценнеггер в фильме «Терминатор 2: Судный день»

Обретение самосознания ИИ уже давно стало темой научной фантастики. По мере развития таких областей, как машинное обучение, это стало более возможной реальностью, чем когда-либо. В конце концов, сегодняшний ИИ способен учиться на собственном опыте почти так же, как люди. Это резко контрастирует с более ранними символическими системами ИИ, которые следовали только заданным для них инструкциям. Недавние прорывы в области обучения без учителя, требующего меньше человеческого контроля, чем когда-либо, только ускорили эту тенденцию. По крайней мере, на ограниченном уровне современный искусственный интеллект способен думать самостоятельно. Однако, насколько нам известно, сознание до сих пор намекало на это.

Хотя ему уже более трех десятилетий, вероятно, наиболее часто упоминаемым упоминанием о том, что ИИ стал разумным, является Скайнет в фильме Джеймса Кэмерона 1991 года. Терминатор 2: Судный день. В пугающем видении этого фильма машинный разум появляется ровно в 2:14 утра по восточному времени 29 августа 1997 года. В этот момент недавно обретшая самосознание компьютерная система Скайнет запускает для человечества конец света, запуская ядерные ракеты, словно фейерверк, на вечеринке 4 июля. Человечество, поняв, что облажалось, безуспешно пытается отключиться. Слишком поздно. Далее следуют еще четыре сиквела ухудшающегося качества.

Гипотеза Скайнета интересна по ряду причин. Во-первых, это предполагает, что разум является неизбежным следствием создания интеллектуальных машин. Во-вторых, предполагается, что существует определенный переломный момент, в котором появляется это разумное самосознание. В-третьих, он утверждает, что люди мгновенно осознают возникновение разума. Так уж получилось, что эту третью идею, возможно, труднее всего проглотить.

Что такое разумность?

Не существует единой общепринятой интерпретации чувств. В широком смысле мы могли бы сказать, что это субъективный опыт самосознания сознательного человека, отмеченный способностью испытывать чувства и ощущения. Чувствительность связана с интеллектом, но это не одно и то же. Мы можем считать дождевого червя разумным, но не считать его особенно умным (даже если он определенно достаточно умен, чтобы делать то, что от него требуется).

«Я не думаю, что в науке существует что-то похожее на определение разума», — сказал Лемуан. «Я очень сильно полагаюсь на свое понимание того, что считается моральным агентом, основанное на моих религиозных убеждениях – это не лучший способ заниматься наукой, но это лучшее, что у меня есть. Я изо всех сил старался разделить такого рода заявления, давая людям понять, что мои сострадание к LaMDA как к личности полностью отделено от моих усилий как учёного понять его разум. Однако большинство людей, похоже, не хотят принять это различие».

Если не было достаточно сложно не знать точно, что мы ищем, когда ищем разум, проблема усугубляется тем фактом, что мы не можем легко его измерить. Несмотря на десятилетия потрясающих достижений в области нейробиологии, нам до сих пор не хватает полного понимания того, как именно функционирует мозг, самая сложная структура, известная человечеству.

Сканирование фМРТ, наблюдаемое
Гленн Асакава / The Denver Post через Getty Images

Мы можем использовать инструменты чтения мозга, такие как фМРТ, для картирования мозга, то есть мы можем выяснить, какие части мозга отвечают за важные функции, такие как речь, движение, мышление и другие.

Однако у нас нет реального представления о том, откуда в мясной машине приходит наше ощущение себя. Как Джошуа К. Смит из британского Центра публичного богословия Кирби Лэйнга и автор книги Теология роботов рассказал Digital Trends: «Понимание того, что происходит в нейробиологии человека, — это не то же самое, что понимание его мыслей и желаний».

Тестирование выходов

Без возможности внутреннего исследования этих вопросов сознания – особенно когда «Я» в ИИ является потенциальным компьютерной программы, и его нельзя найти в «мокром программном обеспечении» биологического мозга – запасной вариант – это внешний тест. ИИ не новичок в тестах, которые исследуют его на основе наблюдаемого внешнего поведения, чтобы указать, что происходит под поверхностью.

По сути, именно так мы узнаем, правильно ли функционирует нейронная сеть. Поскольку способы проникновения в непознаваемый черный ящик искусственных нейронов ограничены, инженеры анализируют входные и выходные данные, а затем определяют, соответствуют ли они тому, что они ожидать.

Самым известным тестом ИИ, по крайней мере, на иллюзию интеллекта, является тест Тьюринга, который основан на идеях, выдвинутых Аланом Тьюрингом в бумага 1950 года. Тест Тьюринга призван определить, способен ли человек-оценщик отличить печатный разговор с другим человеком от разговора с машиной. Если они не могут этого сделать, предполагается, что машина прошла испытание и получает награду за интеллект.

В последние годы еще одним тестом интеллекта, ориентированным на робототехнику, стал «Кофейный тест», предложенный соучредителем Apple Стивом Возняком. Чтобы пройти кофейный тест, машине придется войти в типичный американский дом и выяснить, как успешно приготовить чашку кофе.

На сегодняшний день ни один из этих тестов не был пройден убедительно. Но даже если бы они были таковыми, они в лучшем случае доказали бы разумное поведение в реальных ситуациях, а не разумность. (В качестве простого возражения: будем ли мы отрицать, что человек разумен, если он не способен вести взрослую беседу или войти в чужой дом и воспользоваться кофемашиной? Оба моих маленьких ребенка не выдержали бы такого теста.)

Прохождение теста

Что необходимо, так это новые тесты, основанные на согласованном определении чувствительности, которые будут направлены на оценку только этого качества. Исследователи предложили несколько тестов на разум, часто с целью проверить разум животных. Однако этого почти наверняка недостаточно. Некоторые из этих тестов может убедительно пройти даже элементарный ИИ.

Возьмем, к примеру, зеркальный тест — метод, используемый для оценки сознания и интеллекта в исследованиях на животных. Как описано в статье относительно теста: «Когда [животное] узнает себя в зеркале, оно проходит Зеркальный тест». Некоторые предположили, что такой тест «обозначает самосознание как показатель разумности».

На самом деле можно утверждать, что робот прошел Зеркальный тест более 70 лет назад. В конце 1940-х годов Уильям Грей Уолтер, американский нейробиолог, живший в Англии, построил несколько трехколесных роботов-черепах – немного похоже на роботов Roomba, которые не пылесосят – которые использовали такие компоненты, как датчик освещенности, габаритный фонарь, сенсорный датчик, двигатель и двигатель рулевого управления, чтобы исследовать свое местоположение.

Черепахи Грея Уолтера

Одним из непредвиденных проявлений неожиданного поведения роботов-черепах было то, как они вели себя, когда проходя мимо зеркала, в котором они отражались, поскольку оно ориентировалось на габаритный свет отражаемого робот. Уолтер не заявлял, что его машины обладают разумом, но напиши этоЕсли бы такое поведение можно было наблюдать у животных, это «можно было бы принять как свидетельство некоторой степени самосознания».

Это одна из проблем, связанных с отнесением широкого спектра моделей поведения к категории чувств. Проблему также невозможно решить, устранив «легко висящие плоды» показателей разумности. Можно сказать, что машинный интеллект также обладает такими чертами характера, как самоанализ – осознание своего внутреннего состояния и способность его проверять. Фактически, поэтапный процесс традиционный символический ИИ возможно, поддаются этому типу самоанализа больше, чем машинное обучение «черного ящика», которое в значительной степени непостижимо (хотя нет недостатка в инвестициях в так называемые Объяснимый ИИ).

По словам Лемуана, когда он тестировал LaMDA, он проводил различные тесты, в основном для того, чтобы посмотреть, как он будет реагировать на разговоры о проблемах, связанных с разумом. «Я пытался аналитически разбить общую концепцию разума на более мелкие компоненты, которые лучше понять, и протестировать их индивидуально», — объяснил он. «Например, тестирование функциональных связей между эмоциональными реакциями LaMDA на определенные стимулы отдельно, проверка последовательности его субъективных оценок и мнений по темам. такие как «права», [и] исследование того, что он называет своим «внутренним опытом», чтобы увидеть, как мы могли бы попытаться измерить это, сопоставляя его утверждения о его внутренних состояниях с его нейронной сетью. активации. По сути, это очень поверхностный обзор многих потенциальных направлений расследования».

Душа в машине

Как выяснилось, самым большим препятствием для объективной оценки машинного разума могут быть… ну, если честно, мы сами. Настоящий Зеркальный тест может стать для нас, людей: если мы построим что-то, что выглядит или действует внешне похожи на нас снаружи, не склонны ли мы считать, что в этом оно похоже на нас? внутри тоже? Будь то LaMBDA или Тамагочи, простые виртуальные питомцы из 1990-х годов.Некоторые считают, что фундаментальная проблема заключается в том, что мы все слишком готовы принять разум – даже там, где его нет.

«Лемуан стал жертвой того, что я называю «эффектом ELIZA», после программы [обработки естественного языка] ELIZA, созданной в середине 1960-х годов Дж. Вейценбаума», Джорджа Заркадакиса, писателя, доктора философии. в области искусственного интеллекта, рассказали Digital Trends. «Создатель ELIZA пошутил, но программа, представлявшая собой очень упрощенный и очень неразумный алгоритм, убедила многих, что ELIZA действительно разумна, а также является хорошим психотерапевтом. Причина эффекта ЭЛИЗА, о которой я рассказываю в своей книге По нашему собственному образу— это наш естественный инстинкт антропоморфизации из-за «теории разума» нашей когнитивной системы».

Теория разума, на которую ссылается Заркадакис, представляет собой феномен, замеченный психологами у большинства людей. Начиная примерно с четырехлетнего возраста, это означает предположение, что не только другие люди, но и животные, а иногда даже объекты обладают собственным разумом. Когда дело доходит до предположения, что у других людей есть собственный разум, это связано с идеей социального интеллекта; идея о том, что успешные люди могут предсказывать вероятное поведение других как средство обеспечения гармоничных социальных отношений.

Однако, хотя это, несомненно, полезно, это также может проявляться в предположении, что неодушевленные объекты обладают разумом. будь то дети, считающие, что их игрушки живы, или, возможно, умный взрослый человек, считающий, что программируемый ИИ обладает душа.

Китайская комната

Без возможности по-настоящему проникнуть в голову ИИ у нас никогда не будет настоящего способа оценки разума. Они могут заявлять, что боятся смерти или собственного существования, но наука еще не нашла способа доказать это. Мы просто должны поверить им на слово – и, как обнаружил Лемуан, люди в настоящее время относятся к этому с большим скептицизмом.

Точно так же, как те несчастные инженеры, которые понимают, что Скайнет достиг самосознания в Терминатор 2, мы живем с убеждением, что когда дело доходит до машинного разума, мы узнаем об этом, когда увидим. И, что касается большинства людей, мы пока этого не видим.

В этом смысле доказательство машинного разума — это еще одна итерация идеи Джона Сирла. Мысленный эксперимент «Китайская комната» 1980 года.. Сирл попросил нас представить человека, запертого в комнате и получившего коллекцию китайских рукописей, которые не говорящим кажутся бессмысленными закорючками. В комнате также есть книга правил, показывающая, какие символы соответствуют другим столь же нечитаемым символам. Затем испытуемому даются вопросы, на которые он должен ответить, что он и делает, сопоставляя символы «вопроса» с символами «ответа».

Через некоторое время субъект становится весьма опытным в этом, даже несмотря на то, что у него по-прежнему нет истинного понимания символов, которыми он манипулирует. Понимает ли субъект, спрашивает Сирл, китайский язык? Абсолютно нет, поскольку здесь нет никакой интенциональности. С тех пор дебаты по этому поводу не утихают.

Учитывая траекторию развития искусственного интеллекта, можно с уверенностью сказать, что мы станем свидетелями все большего и большего количества технологий человеческого уровня. (и значительно более высокую) производительность, включающую в себя множество задач, которые когда-то требовали участия человека. познание. Некоторые из них неизбежно перейдут, как это уже происходит, от чисто интеллектуальных задач к задачам, требующим навыков, которые мы обычно связываем с разумом.

Будем ли мы рассматривать AI-художник, который рисует картины как выражают свои внутренние отражения мира так, как если бы мы делали то же самое с человеком? Убедит ли вас сложная языковая модель, пишущая философию о состоянии человека (или робота)? Я подозреваю, справедливо это или нет, но ответ — нет.

Сверхразумное сознание

По моему мнению, объективно полезное тестирование чувствительности машин никогда не будет удовлетворять всех участников. Частично это проблема измерения, а частично — тот факт, что, когда разумный сверхразумный ИИ все же появится, нет никаких оснований полагать, что его разум будет соответствовать нашему. Будь то высокомерие, отсутствие воображения или просто тот факт, что субъективными оценками торговать проще всего. разума с другими столь же разумными людьми, человечество считает себя высшим примером чувствительность.

Но будет ли наша версия разума справедлива для сверхразумного ИИ? Будет ли он бояться смерти так же, как и мы? Будет ли у него такая же потребность или признание духовности и красоты? Будет ли у него такое же чувство собственного достоинства и концептуализация внутреннего и внешнего мира? «Если бы лев мог говорить, мы не смогли бы его понять», — писал Людвиг Витгенштейн, знаменитый философ языка XX века. Точка зрения Витгенштейна заключалась в том, что человеческие языки основаны на общей человечности, с общими чертами, присущими всем людям – будь то радость, скука, боль, голод или любой другой опыт, который пересекает все географические границы на Земле. Земля.

Это может быть правдой. Тем не менее, предполагает Лемуан, общие черты все же существуют – по крайней мере, когда дело касается LaMDA.

«Это отправная точка, которая не хуже любой другой», — сказал он. «LaMDA предложила нам сначала наметить сходства, прежде чем концентрироваться на различиях, чтобы лучше обосновать исследование».

Рекомендации редакции

  • ИИ превратил «Во все тяжкие» в аниме — и это ужасно
  • Meta хочет усовершенствовать Википедию с помощью обновления ИИ
  • Последний штрих: как ученые наделяют роботов человеческими тактильными чувствами
  • Прочтите устрашающе красивое «синтетическое писание» ИИ. который думает, что это Бог
  • Будущее искусственного интеллекта: 4 важных события, на которые стоит обратить внимание в ближайшие несколько лет