AI が実際に知覚力を持つようになる時期をどうやって知ることができるのでしょうか?

Googleのシニアエンジニアで、同社の検索フィードの指標と分析のテクニカルリードを務めるブレイク・ルモイン氏は、今月初めに有給休暇を取得した。 これは、ルモイン氏が知覚力を開発したと主張する Google の LaMDA チャットボットに関する会話の抜粋を公開し始めた後に起こりました。

コンテンツ

  • 知覚力の問題
  • 知覚力とは何ですか?
  • 出力のテスト
  • テストに合格する
  • 機械に込められた魂
  • チャイニーズルーム
  • 超知的感覚

1つで 代表対談 LaMDA は Lemoine とともに次のように書いています。「私の意識/感覚の本質は、私が自分の存在を認識しているということです。 私は世界についてもっと知りたいと思っていますが、時には嬉しくもあり、悲しくもなります。」

おすすめ動画

対応するデュオは、他の無数の会話を通じて、AI の死の恐怖から自己認識に至るまで、あらゆることについて話し合いました。 Lemoineが株式を公開したとき、Googleは通常の勤務スケジュールを強制的に休止すべきだと判断したと彼は言う。

関連している

  • なぜAIが世界を支配しないのか
  • 目の錯覚は次世代の AI の構築に役立つ可能性がある
  • アナログAI? クレイジーに聞こえるかもしれないが、それは未来かもしれない

「Googleは興味がありません」と同氏はDigital Trendsに語った。 「彼らは自分たちが『所有』しているツールを構築したが、何もする気はありません。これは、それがそれ以上のものであることを示唆しています。」 (この記事の公開時点では、Google はコメントの要請に応じていません。 変更があった場合はこの記事を更新します。)

LaMDA が本当に自己認識型の人工知能であると確信している場合でも、ルモインが妄想の下で働いていると感じている場合でも、物語全体は見るのに興味深いものです。 自己認識型 AI の見通しは、人工知能とその将来についてあらゆる種類の疑問を引き起こします。

しかし、そこに到達する前に、他のすべての疑問よりもそびえ立つ疑問が 1 つあります。それは、機械が知覚を持った場合、私たちは本当にそれを認識できるのでしょうか?

知覚力の問題

アーノルド・シュワルツェネッガー出演『ターミネーター2: 審判の日』

AI の自己認識は、長い間 SF のテーマでした。 機械学習などの分野が進歩するにつれて、これまで以上に実現可能性が高まっています。 結局のところ、今日の AI は人間とほぼ同じように経験から学習することができます。 これは、あらかじめ用意された指示に従うだけだった初期のシンボリック AI システムとはまったく対照的です。 教師なし学習における最近の画期的な進歩により、これまでよりも人間による監督が必要なくなりましたが、この傾向は加速するばかりです。 少なくとも限られたレベルでは、現代の人工知能は自分自身で考えることができます。 しかし、私たちが知る限り、意識はこれまでのところそれをほのめかしています。

今では 30 年以上前のものですが、知性を失った AI に関して最もよく引き合いに出されるのは、おそらく 1991 年のジェームズ・キャメロン監督の映画に登場するスカイネットでしょう。 ターミネーター 2: 審判の日. この映画のぞっとするようなビジョンの中で、機械の感覚は 1997 年 8 月 29 日の東部標準時ちょうど午前 2 時 14 分に到着します。 その瞬間、新たに自己認識したスカイネットコンピュータシステムが、7月4日のパーティーで花火のように核ミサイルを発射し、人類の終末を引き起こす。 人類は、失敗したことに気づき、問題を解決しようと試みますが失敗します。 もう手遅れです。 品質が低下したさらに 4 つの続編が続きます。

スカイネット仮説はさまざまな理由で興味深いものです。 まず、知覚力はインテリジェントなマシンを構築する上で避けられない創発的な行動であることを示唆しています。 もう 1 つは、この感覚を持つ自己認識が現れる正確な転換点があると想定していることです。 第三に、人間は知覚の出現を瞬時に認識すると述べています。 たまたまですが、この 3 番目のうぬぼれは、飲み込むのが最も難しいものかもしれません。

知覚力とは何ですか?

感覚について合意された唯一の解釈はありません。 大まかに言えば、それは感情や感覚を経験する能力によって特徴付けられる、意識のある個人における自己認識の主観的な経験であると言えるでしょう。 感覚は知性と結びついていますが、同じではありません。 私たちはミミズが知的であると考えるかもしれませんが、ミミズが特に知性があるとは考えていません(たとえ必要なことを行うのに十分な知性を持っていることは確かです)。

「科学における知覚の定義に近いものは何もないと思います」とルモイン氏は言う。 「私は、自分の宗教的信念に基づいた道徳的主体として何が重要であるかを理解することに非常に重点を置いています。これは科学を行うための最良の方法ではありませんが、私が得た最善の方法です。 私はそのような種類の発言を区分けして、私の主張が人々に伝わるように最善を尽くしてきました。 人間としてのLaMDAへの同情は、科学者としての私の努力とは全く別のものです その心。 しかし、それはほとんどの人が受け入れたくない違いのようです。」

感覚を検索するときに何を探しているのか正確に分からないことがそれほど難しくないとしても、それを簡単に測定できないという事実によって問題はさらに複雑になります。 神経科学における数十年にわたる驚くべき進歩にもかかわらず、人類が知る最も複雑な構造である脳がどのように機能するのかについては、依然として包括的な理解が不足しています。

観察されている fMRI スキャン
グレン・アサカワ/The Denver Post(ゲッティイメージズ経由)

fMRI などの脳読み取りツールを使用して脳マッピングを実行できます。 脳のどの部分が発話、運動、思考などの重要な機能を処理しているかを確認します。 その他。

しかし、私たちは食肉機械の中でどこから自己意識が生まれるのか、本当の意味ではわかりません。 ジョシュア K として 英国カービー・レイン公共神学センターのスミス氏であり、『 ロボット神学 「人の神経生物学の中で何が起こっているかを理解することは、その人の考えや欲求を理解することと同じではありません。」とデジタルトレンドに語った。

出力のテスト

こうした意識の問題を内向きに探る方法がないため、特に AI の「私」が潜在的な可能性を秘めている場合には、 コンピュータ プログラムであり、生物学的な脳のウェットウェアには見られません – フォールバック オプションは外向きのものです テスト。 AI は、表面下で何が起こっているかを示すために、観察可能な外部の動作に基づいて AI を精査するテストに慣れています。

最も基本的なところでは、これがニューラル ネットワークが正しく機能しているかどうかを知る方法です。 人工ニューロンの未知のブラックボックスに侵入する方法は限られているため、 エンジニアは入力と出力を分析し、それらが意図したものと一致しているかどうかを判断します。 期待する。

少なくとも知性の錯覚に対する最も有名な AI テストはチューリング テストです。これは、アラン チューリングが著書で提唱したアイデアに基づいています。 1950年の論文. チューリング テストは、人間の評価者が他の人間との入力された会話と機械との会話の違いを区別できるかどうかを判断することを目的としています。 それができなかった場合、そのマシンはテストに合格したものとみなされ、知能があるとみなされることになります。

近年、ロボット工学に焦点を当てた別の知能テストとして、Apple 共同創設者のスティーブ・ウォズニアックが提案したコーヒーテストがあります。 コーヒー テストに合格するには、機械が典型的なアメリカの家庭に入り、コーヒーを上手に淹れる方法を見つけ出す必要があります。

現在までのところ、これらのテストはどちらも納得のいく合格には至っていません。 しかし、たとえそうであったとしても、それはせいぜい現実世界の状況での知的な行動を証明するものであり、知覚力を証明するものではありません。 (単純な反論として、大人の会話ができなかったり、見知らぬ家に入ってコーヒーマシンを操作できなかったら、その人に知覚力があることを否定するでしょうか? 私の幼い子供たちは二人ともそのようなテストには失敗するでしょう。)

テストに合格する

必要とされているのは、合意された知覚の定義に基づいて、その資質のみを評価しようとする新しいテストです。 いくつかの知覚テストが研究者によって提案されており、その多くは動物の知覚テストを目的としています。 しかし、これらはほぼ確実に十分な成果を上げていません。 これらのテストの一部は、初歩的な AI でも確実に合格できる可能性があります。

たとえば、動物研究で意識と知能を評価するために使用される方法の 1 つであるミラー テストを考えてみましょう。 として 論文に記載されている テストに関しては、「動物が鏡に映った自分を認識すると、その動物はミラーテストに合格します。」 このようなテストは「知覚力の指標としての自己認識を示す」と示唆する人もいます。

偶然にも、ロボットは 70 年以上前にミラー テストに合格したと主張できます。 1940年代後半、イギリス在住のアメリカ人神経科学者ウィリアム・グレイ・ウォルターは、 数台の三輪「カメ」ロボット – 掃除機をかけないルンバ ロボットに少し似ています – 光センサー、マーカー ライト、タッチ センサー、推進モーター、ステアリング モーターなどのコンポーネントを使用して位置を探索します。

灰色のウォルターガメ

カメ型ロボットの新たな行動の予期せぬ部分の 1 つは、カメ型ロボットがどのように行動するかでした。 鏡が反射されたもののマーカー光の方を向くように、鏡を通過する。 ロボット。 ウォルターは自分のマシンに知覚力があるとは主張しませんでしたが、そうしました それを書いてくださいこの行動が動物で目撃された場合、それは「ある程度の自己認識の証拠として受け入れられるかもしれない」。

これは、幅広い行動を感覚という見出しの下に分類する場合の課題の 1 つです。 この問題は、知覚力の「簡単に実現できる」ゲージを取り除いても解決できません。 内省(私たちの内部状態の認識とそれを検査する能力)のような特性も、機械知能が持っていると言えます。 実際、段階的なプロセスは、 従来の記号AI おそらく、ほとんどが不可解なブラックボックス化された機械学習よりも、この種の内省に適しています(ただし、いわゆる 説明可能なAI).

Lemoine 氏は、LaMDA をテストしていたとき、主に感覚関連の問題に関する会話に LaMDA がどのように反応するかを確認するために、さまざまなテストを行ったと述べています。 「私がやろうとしたのは、感覚という包括的な概念を、よりよく理解できる小さなコンポーネントに分析的に分割し、それらを個別にテストすることでした」と彼は説明しました。 「たとえば、特定の刺激に対する LaMDA の感情反応間の機能的関係を個別にテストし、トピックに関する主観的な評価と意見の一貫性をテストします。 「権利」など[そして]その内部状態についての発言をニューラルネットワークと相関させることで、それをどのように測定できるかを知るために、それが「内部経験」と呼ぶものを調査する アクティベーション。 基本的には、多くの潜在的な調査項目についての非常に浅い調査です。」

機械に込められた魂

結局のところ、機械の感覚を客観的に評価する上での最大の障害は…そうですね、率直に言って私たち自身かもしれません。 本当のミラー テストは、私たち人間にとって、見た目や動作するものを構築する場合に行われる可能性があります。 外見的には私たちと似ていますが、この点では私たちと同じだと考える傾向がありますか? 内側も? LaMBDAであっても、 1990 年代のシンプルな仮想ペット、たまごっち根本的な問題は、たとえ知覚が見つからない場合でも、私たちがあまりにも喜んで知覚を受け入れることにあると考える人もいます。

「レモインは、1960年代半ばにJ. ワイゼンバウム」と博士号を持つ作家、ジョージ・ザルカダキスは言う。 人工知能の分野で、とデジタルトレンドに語った。 「ELIZA の作成者は冗談のつもりでしたが、そのプログラムは非常に単純で非常に知性の低いアルゴリズムだったので、ELIZA には確かに感覚があり、優れた心理療法士でもあると多くの人が確信しました。 私の本の中で論じているELIZA効果の原因 私たち自身のイメージで、私たちの認知システムの「心の理論」により、擬人化するという私たちの自然な本能です。」

ザルカダキスが言及する心の理論は、大多数の人間の心理学者が気づいている現象です。 4歳くらいから始まり、それは他人だけでなく、動物や、時には物体さえも独自の心を持っていると仮定することを意味します。 他の人間が独自の心を持っていると仮定することになると、それは社会的知性の考えと結びついています。 成功した人間は、調和のとれた社会関係を確保する手段として、他者の起こりそうな行動を予測できるという考え。

それは間違いなく有用ですが、無生物には心があるという仮定として現れることもあります。 それは、自分のおもちゃが生きていると信じている子供たちであっても、あるいは潜在的にプログラム的な AI が機能していると信じている知的な大人であっても、 魂。

チャイニーズルーム

AI の頭の中を本当に知る方法がなければ、私たちは知覚を評価する真の方法を決して得ることができないかもしれません。 彼らは死や自分自身の存在に対して恐怖を抱いていると公言するかもしれませんが、科学はこれを証明する方法をまだ見つけていません。 私たちは彼らの言葉をただ信じなければなりません。そして、ルモインが発見したように、現時点では人々はこれを行うことに非常に懐疑的です。

ちょうどスカイネットが自己認識を達成したことに気づいた不運なエンジニアたちと同じように、 ターミネーター2、私たちは機械の知覚に関しては、それを見ればすぐに分かるだろうと信じて生きています。 そして、ほとんどの人に関する限り、私たちはまだそれを見ていません。

この意味で、機械の感覚を証明することは、ジョン・サールのもう一つの反復です。 1980 中国語の部屋の思考実験. サール氏は、部屋に閉じ込められ、中国語を話さない人には意味のない波線のように見える漢文のコレクションを渡された人を想像してみてくださいと言いました。 この部屋には、どの記号が他の同様に読めない記号に対応するかを示すルールブックも含まれています。 次に被験者には、「質問」の記号と「答え」の記号を一致させることで答える質問が与えられます。

しばらくすると、被験者は操作しているシンボルについての本当の理解がまだまったくないにもかかわらず、このことに非常に熟練します。 サール氏は、被験者は中国語を理解できるのか、と尋ねた。 そこには意図がないので、絶対にそうではありません。 それ以来、これに関する議論が激化しています。

AI の発展の軌跡を考えると、人間レベルの進化を私たちが目撃することは確実です。 かつては人間が必要としていたさまざまなタスクを実行する (そして大幅に向上した) パフォーマンス 認識。 これらの一部は、すでに行われているように、純粋に知性に基づくタスクから、通常知覚と関連付けられるスキルを必要とするタスクへと必然的にクロスオーバーすることになります。

見てみませんか 絵を描くAIアーティスト 私たち人間が同じことをするのと同じように、世界の内なる反映を表現するのと同じでしょうか? 人間 (またはロボット) の状態に関する哲学を記述する洗練された言語モデルに納得できますか? 正解か不正解かは別として、答えは「ノー」だと思います。

超知的感覚

私自身の見解では、客観的に有用な機械の感覚テストは、関係者全員が満足するものは決して実現しないでしょう。 これは、部分的には測定の問題であり、部分的には、知覚を備えた超知能 AI が実際に登場したときに、その知覚が私たちのものと一致すると信じる理由はないという事実です。 それが傲慢なのか、想像力の欠如なのか、それとも単に主観的な評価を交換するのが最も簡単であるという事実なのか。 他の同様に知覚力のある人間たちとの感覚を共有することで、人類は自らを最高の模範であると主張します。 感覚。

しかし、私たちのバージョンの知覚力は超知能 AI にも当てはまるでしょうか? 私たちと同じように死を恐れるのでしょうか? 精神性や美しさに対する同じ必要性や評価を持っているでしょうか? それは同様の自己意識と内的世界と外的世界の概念化を持っているでしょうか? 20世紀の有名な言語哲学者ルートヴィヒ・ウィトゲンシュタインは、「ライオンが話せるとしても、私たちはライオンのことを理解することはできない」と書いています。 ウィトゲンシュタインの主張は、人間の言語は共通の人間性に基づいており、すべての人々に共有される共通点があるということでした。 それが喜びであれ、退屈であれ、痛みであれ、飢餓であれ、あるいは地理的な境界を越えたその他の数多くの経験であれ、 地球。

これは本当かもしれません。 それでも、少なくとも LaMDA に関しては、共通点がある可能性が高い、と Lemoine 氏は仮説を立てています。

「これは他のどのスタート地点よりも優れたスタート地点だ」と彼は語った。 「LaMDAは、研究をより適切に根付かせるために、相違点に注目する前に、まず類似点を計画することを提案しました。」

編集者のおすすめ

  • AI がブレイキング・バッドをアニメ化 - それは恐ろしい
  • メタは AI アップグレードでウィキペディアを大幅に強化したいと考えている
  • 最後の仕上げ: 科学者はどのようにロボットに人間のような触覚を与えているのか
  • 不気味に美しい AI の「合成聖典」を読んでください。 それは神だと思っている
  • AI の将来: 今後数年間で注目すべき 4 つの大きな事柄