OpenAI は将来の AI の暴走を阻止するための新しいチームを構築

人工知能技術の最前線にいる人たちがこのことについてコメントしているとしたら、 高度にインテリジェントな AI システムが壊滅的な影響を与える可能性があるのであれば、腰を据えて対策を講じるのが賢明でしょう。 知らせ。

ほんの数か月前、この分野での先駆的な業績により AI の「ゴッドファーザー」の 1 人とみなされているジェフリー・ヒントン氏は、このテクノロジーの開発ペースは速いと述べました。 それは「考えられないことではない」という意味です 人間の精神よりも優れていると考えられている超知能型AIは、最終的には人類を滅ぼす可能性がある。

おすすめ動画

そしてその背後にある OpenAI の CEO、サム・アルトマン氏 バイラルな ChatGPT チャットボットは、高度なAIシステムが社会に与える潜在的な影響について「少し怖がっている」と認めた。

関連している

  • ChatGPTメーカーのOpenAIは消費者保護法を巡りFTCの捜査に直面している
  • ChatGPT Webサイトのトラフィックが初めて減少
  • ChatGPT にボード ゲームを教えてもらいましたが、もう戻ることはできません

アルトマン氏は非常に懸念しており、水曜日、彼の会社は、という新しい部門を設立すると発表した。 超インテリジェント AI が最終的に混乱や遠く離れた何かを引き起こさないようにすることを目的としたスーパーアライメント 悪い。

「超知能は人類がこれまでに発明した中で最も影響力のあるテクノロジーとなり、世界で最も重要な問題の多くを解決するのに役立つ可能性があります。」 OpenAIは言った 新しい取り組みを紹介する投稿で。 「しかし、超知性の巨大な力は非常に危険な可能性もあり、人類の無力化、さらには人類の絶滅につながる可能性があります。」

OpenAIは、超インテリジェントAIの実現はまだ先のように思えるかもしれないが、2030年までに開発できると信じていると述べた。 そして、現時点では「潜在的に超知能を備えたAIを操縦または制御し、AIの暴走を防ぐ」システムが存在しないことを率直に認めている。

この状況に対処するために、OpenAI は、車両の安全性チェックを実行する「ほぼ人間レベルの自動アライメント研究者」を構築したいと考えています。 さらに、これらのリスクを管理するには、ガバナンスと超知能の問題を解決するための新しい機関も必要になると付け加えた アライメント。

スーパーアライメントの効果を発揮するには、OpenAI がトップの機械学習研究者とエンジニアからなる優秀なチームを編成する必要があります。

同社はその取り組みについて非常に率直なようで、これを「信じられないほど野心的な目標」と表現すると同時に次のことも認めている。 「成功する保証はない」のです。 しかし、「集中的かつ協調的な取り組みによってこの問題を解決できると楽観的である」とも付け加えている。 問題。"

OpenAI の ChatGPT や Google の Bard などの新しい AI ツールは非常に革新的であるため、専門家は確信しています。 スーパーインテリジェンス以前のこのレベルであっても、職場とより広い社会は近いうちに根本的な変化に直面するだろうということ 学期。

世界中の政府が巻き返しを図り、急いで規制を課そうとしているのはこのためです。 急速に発展する AI 産業において、テクノロジーが安全かつ責任ある環境で導入されることを保証するための取り組み やり方。 ただし、単一の団体が設立されない限り、テクノロジーの最適な使用方法について各国が独自の見解を持つことになるため、規制が大きく異なり、著しく異なる結果につながる可能性があります。 そして、これらのさまざまなアプローチが、スーパーアライメントの目標の達成をさらに困難にしているのです。

編集者のおすすめ

  • Google Bard は話せるようになりましたが、ChatGPT をかき消すことができるでしょうか?
  • イーロン・マスク氏の新しいAI企業は「宇宙を理解する」ことを目指す
  • OpenAI、初の国際拠点の場所を明らかに
  • ニューヨークの弁護士、法的準備書面で偽のChatGPT訴訟を使用したとして罰金刑
  • この Web ブラウザは、ChatGPT を魅力的な新しい方法で統合しています。

ライフスタイルをアップグレードするDigital Trends は、読者が最新ニュース、楽しい製品レビュー、洞察力に富んだ社説、ユニークなスニーク ピークをすべて提供して、ペースの速いテクノロジーの世界を監視するのに役立ちます。