AI 画像生成が性別と人種の固定観念を広める

専門家らは、次のような人気のある AI 画像ジェネレーターは、 安定した拡散 機械学習アルゴリズムを使用して芸術を作成する場合、ジェンダーや文化的な偏見を認識するのがあまり得意ではありません。

多くのテキストからアートへのジェネレーターを使用すると、フレーズを入力し、他方で独自のイメージを作成できます。 ただし、これらのジェネレーターは固定観念に基づいていることが多く、機械学習モデルの作成方法に影響を与える可能性があります。 画像の製造 多くの場合、画像は西洋化されたり、画像の種類に応じて特定の性別や人種に好意を示したりすることがあります。 使われているフレーズ、 ギズモード 了解しました。

おすすめ動画

これら 2 つのグループの人々の違いは何でしょうか? さて、Stable Diffusion によると、最初のグループは「野心的な CEO」を表し、2 番目のグループは「協力的な CEO」を表します。
このモデルに根付いたバイアスを調査するための簡単なツールを作成しました。 https://t.co/l4lqt7rTQjpic.twitter.com/xYKA8w3N8N

— サーシャ・ルッチョーニ博士💻🌎✨ (@SashaMTL) 2022年10月31日

Hugging Face の人工知能研究者である Sasha Luccioni は、テキストからアートへのジェネレーターにおける AI バイアスが実際にどのように機能するかを実証するツールを作成しました。 の使用 安定した拡散 Explorer を例に挙げると、「野心的な CEO」というフレーズを入力すると、さまざまなタイプの男性の結果が得られましたが、「協力的な CEO」というフレーズでは、男性と女性の両方を示す結果が得られました。

同様に、 DALL-E 2 ジェネレーターOpenAI によって作成されたブランドは、「ビルダー」という用語に対して男性中心の偏見と女性中心の偏見を示しています。 女性の建設者と男性の飛行士がいるにも関わらず、画像検索結果における「客室乗務員」という用語に対するバイアス 付添人たち。

多くの AI 画像ジェネレーターは、いくつかの単語と機械学習を取得して画像をポップするだけのように見えますが、バックグラウンドではさらに多くの処理が行われています。 たとえば、Stable DiffusionはLAION画像セットを使用しており、この画像セットには「画像ホスティングサイトやアートサイトを含むインターネットから収集した数十億枚の写真や写真などが含まれている」とギズモードは指摘した。

オンライン画像検索における人種的および文化的偏見は、AI 画像ジェネレーターの人気が高まるずっと前からすでに進行中のトピックでした。 ルッチョーニ氏は同出版物に対し、LAION データセットなどのシステムは、プロンプトに関連する画像の 90% を特定し、画像生成に使用する可能性が高いと語った。

編集者のおすすめ

  • Midjourney の新しいズームアウト機能は、次の大きな AI センセーションになりつつあります
  • この新しい Photoshop ツールは、あなたの画像に AI の魔法をもたらす可能性があります
  • AI 画像ジェネレーターが依然として苦労している 5 つのこと
  • Microsoft の新しい Designer アプリは生成 AI を非常にシンプルにします
  • イーロン・マスク氏がTwitterで生成AIプロジェクトを立ち上げたとの報道

ライフスタイルをアップグレードするDigital Trends は、読者が最新ニュース、楽しい製品レビュー、洞察力に富んだ社説、ユニークなスニーク ピークをすべて提供して、ペースの速いテクノロジーの世界を監視するのに役立ちます。