Microsoftは2023年3月に人工知能(AI)の倫理と社会チームを閉鎖した際、多くの批判を浴びた。 見た目はあまり良くありませんでした ほぼ同時に起きたスキャンダル AIを飲み込んでいるが、同社は今後の取り組みに責任を持ち、今後どのように抑制していくつもりであるかを発表したところだ。
Microsoft の投稿で 問題ブログで、レドモンド事務所の最高責任AI責任者であるナターシャ・クランプトン氏は、倫理チームが解散されたと説明した。 なぜなら、「責任ある AI や倫理的な AI を担当する単一のチームや単一の専門分野では、我々の要求を満たすことはできないからです」 目標。」
代わりに、Microsoft はプライバシー、セキュリティ、アクセシビリティ チームと行ってきたアプローチを採用し、「責任ある AI を組み込んだ」 会社全体で。」 実際には、これは Microsoft に「各コア内で責任ある AI の先頭に立って任務を負う上級スタッフがいる」ことを意味します。 ビジネス グループ」、および「より定期的かつ直接的な業務を遂行するためのさまざまなスキルと役割を備えた、責任ある AI の「チャンピオン」の大規模なネットワーク 婚約。"
関連している
- ChatGPT: 最新のニュース、論争、知っておくべきヒント
- ChatGPT の DAN プロンプトとは何ですか?
- Wix は ChatGPT を使用して、ウェブサイト全体を迅速に構築するのに役立ちます
さらにクランプトン氏は、マイクロソフトには「責任ある AI に 350 人近くの人員が取り組んでおり、そのうちの 3 分の 1 強 (正確には 129 人) がフルタイムで専任している」と述べました。 残りの従業員は、仕事の中核として責任ある AI の責任を負っています。」
おすすめ動画
Microsoftが倫理と社会チームを閉鎖した後、クランプトン氏は、一部のチームメンバーがその後全社のチームに組み込まれたと指摘した。 しかし、2023年初めに1万人の従業員を解雇したマイクロソフトの大規模な人員削減の一環として、グループのメンバー7人が解雇された。
スキャンダルを乗り越える
AIは スキャンダルとはほとんど無縁ではなかった こうした懸念こそが、MicrosoftによるAI倫理チームの解散に対する反発を加速させたのだ。 もし Microsoft に AI 製品を責任ある方向に導くための専任チームがいなかったら、次のように考えられます。 Bing チャットボットの悪名が高まっている種の虐待や問題のある行為を抑制するのは難しいだろう のために。
同社の最新のブログ投稿は、間違いなく一般の人々のこうした懸念を軽減することを目的としている。 MicrosoftはAIへの取り組みを完全に放棄するのではなく、全社のチームが責任あるAIの専門家と定期的に連絡を取ることを確保しようとしているようだ。
それでも、AI 倫理と社会チームの閉鎖がうまくいかなかったのは疑いの余地がなく、マイクロソフトにはこの問題に関する一般大衆の心を和らげる方法がまだ残っている可能性があります。 実際、Microsoft 自体も、ChatGPT の開発者である OpenAI は Microsoft が所有していると考えています。 規制されるべきだ.
つい昨日、「AI のゴッドファーザー」であるジェフリー・ヒントンが Google を辞め、ニューヨーク・タイムズにこう語った。 深刻な不安 AIの拡大のペースと方向性について、最近、主要なテクノロジー専門家のグループが、AIの拡大を求める公開書簡に署名した。 AI開発を一時停止する そのリスクをよりよく理解できるように。
Microsoft は倫理的な AI 開発に関する懸念を無視しているわけではないかもしれませんが、その新しいアプローチが正しいものであるかどうかはまだわかりません。 Bing Chat が物議を醸したスタートを経て、ナターシャ・クランプトンと彼女の同僚たちは、事態が良い方向に変わることを期待しているだろう。
編集者のおすすめ
- トップクラスの著者がAI企業に作品の使用料を要求
- GPT-4: ChatGPT 顔負けの AI チャットボットの使い方
- Bing Chat が職場での AI 禁止に反撃
- Google Bard は話せるようになりましたが、ChatGPT をかき消すことができるでしょうか?
- ChatGPTメーカーのOpenAIは消費者保護法を巡りFTCの捜査に直面している
ライフスタイルをアップグレードするDigital Trends は、読者が最新ニュース、楽しい製品レビュー、洞察力に富んだ社説、ユニークなスニーク ピークをすべて提供して、ペースの速いテクノロジーの世界を監視するのに役立ちます。