新しいテストは AI プログラムにおける差別を検出するように設計されています

Google Duplex とは
人工知能はまだ意識されていませんが、アルゴリズムは依然として識別することができ、時にはそれを作成したプログラマーの隠れたバイアスを微妙に表現します。 AI システムが日常生活にますます入り込むにつれ、これは大きく複雑な問題となっています。

しかし、修正、あるいは少なくともアルゴリズムを監視して、ある人口統計を不適切に差別していないかどうかを判断する方法はあるかもしれない。

おすすめ動画

「学習した予測ルールは、複雑すぎて理解できないことがよくあります。」


Google、シカゴ大学、テキサス大学オースティン校のコンピュータ科学者チームによって提案されました。 教師あり学習における機会の平等 このアプローチでは、意思決定プロセス自体ではなく、機械学習プログラムが行う意思決定を分析して、差別を検出します。 これらのアルゴリズムの本質は、人間のレビューから隠されたブラック ボックスの中で、独自のロジックで独自に決定を下すことです。 そのため、研究者らはブラックボックスにアクセスすることは事実上無駄だと考えている。

「学習した予測ルールは、複雑すぎて理解できないことがよくあります」とシカゴ大学のコンピューター科学者で共著者は、 ネイサン・スレブロとデジタルトレンドに語った。 「確かに、機械学習の要点は、[統計的に]適切なルールを自動的に学習することです…その記述が人間にとって必ずしも意味をなすものではありません。 この学習の観点を念頭に置き、学習したルールをブラックボックスとして扱いながら、無差別の感覚を確保できるようにしたいとも考えました。」

スレブロと共著者 モーリッツ・ハート Googleと エリック・プライス テキサス大学オースティン校の教授は、アルゴリズムの決定を分析し、意思決定プロセスで差別が生じていないことを確認するアプローチを開発しました。 これを行うために、彼らは、特定の人物に関する決定はその人の人口統計のみに基づいて決定すべきではないという偏見防止の原則に基づいて行動しました。 AI プログラムの場合、アルゴリズムによる人に関する決定では、その人の性別や人種について、不適切な差別となるような形で明らかにしてはなりません。

これは問題を直接解決するものではありませんが、差別的なプロセスにフラグを立てて防止するのに役立つテストです。 このため、一部の研究者は警戒している。

「石油パイプラインのルートを最適化する方法を見つけるために機械学習を使用する場合、機械学習は最適です。」 ノエル・シャーキーシェフィールド大学のロボット工学とAIの名誉教授はこう語った。 保護者. 「彼らの中で偏見がどのように働くのかをもっと知るまでは、彼らが人々の生活に影響を与える予測を行っているのではないかと私は非常に懸念しています。」

スレブロ氏はこの懸念を認識しているが、それがチームのアプローチに対する全面的な批判であるとは考えていない。 「私は、一か八かの影響を伴う多くの申請において、特に政府や政府が個人に影響を与えることに同意します。 司法当局、ブラックボックスの統計予測子の使用は適切ではなく、透明性が不可欠です。」 彼は言った。 「他の状況では、営利団体が使用する場合や個人の賭け金が低い場合には、ブラックボックス統計予測子が適切かつ効率的である可能性があります。 それらを完全に禁止することは難しいかもしれませんが、それでも特定の保護された差別を管理することが望ましいです。」

教師あり学習における機会の平等に関する論文 によると、これはスペインのバルセロナで今月開催された神経情報処理システム (NIPS) で、アルゴリズムで差別を検出するアプローチを提供した数少ないプレゼンテーションのうちの 1 つでした。 保護者.

編集者のおすすめ

  • Google Bard がまもなくあなたの新しい AI ライフ コーチになるかもしれません
  • イーロン・マスク氏の新しいAI企業は「宇宙を理解する」ことを目指す
  • インターネットはすべて Google の AI のものになりました
  • Google、従業員にAIチャットボットに注意するよう指示
  • MusicLMとは何ですか? Google のテキスト音楽変換 AI をチェックしてください

ライフスタイルをアップグレードするDigital Trends は、読者が最新ニュース、楽しい製品レビュー、洞察力に富んだ社説、ユニークなスニーク ピークをすべて提供して、ペースの速いテクノロジーの世界を監視するのに役立ちます。