![](/f/ceda09790dd41f971862365724f975b5.jpg)
あなたが選んだ音声アシスタントは、おそらく女性のような声を持っているでしょう。 あまり考えていないかもしれませんが、国連教育科学文化機関 (ユネスコ) は、AI を活用したアシスタントが可能性があると考えています。 否定的なジェンダーの固定観念を強化する一方で、暴力的で虐待的な言葉を適切に拒否することができず、潜在的に有害な結果につながる可能性があります。
「」というタイトルの論文で、できることなら赤面したい」と題して、ユネスコの研究者たちは、人工知能の研究で起こる暗黙の偏見のいくつかを調査しました。 この論文の著者らは、音声アシスタントに伝統的に女性の名前を付けて割り当てることで、 デフォルトで女性っぽい声が多いため、企業は意図せずして女性に対する否定的で退行的な考えを強化してしまいました。 女性。 それは彼らを従順であり、求められたことを行うことが期待される役割に位置づけます。
おすすめ動画
さらに、この論文では、暴言を吐かれたときに音声アシスタントがどのように反応するかについても調査しました。 彼らが発見したのは、A.I. そのようなコメントを思いとどまらせるためのいかなる措置も取らずに、そのようなコメントをそらします。 ユーザーが音声アシスタントを脅すと、多くの場合、ばかげたジョークや否定的なメッセージが表示されます。 ユネスコの研究者らは、テクノロジー企業は女性の声に向けられた暴言を減らすために、これらのシステムに安全策を組み込むべきだと考えている。 研究者らは、これを怠ると、企業は女性に対して暴力的な脅迫を行うなどの行為を常態化してしまうリスクにさらされると考えている。
関連している
- スマートアシスタントを両親に売り込む方法
- あなたのスマートホームは住宅所有者保険の費用を節約できますか?
- アプリにより、Breville Joule Oven Air Flyer Pro が真にスマートになります
ユネスコによると、この問題の一部は、ほとんどのハイテク企業のエンジニアリング チームが大規模かつ圧倒的に男性で構成されていることです。 なぜなら、彼らはおそらく自分たちに向けられたこの種の言葉に直接対処した経験がなく、またこの種の言葉の被害者になったこともないからです。 女性が直面している否定的な固定観念や時代遅れの性役割は、AI を設計するときに必ずしも考慮されているわけではありません。 システム。
「Apple や Amazon のような企業は、圧倒的に男性のエンジニアリング チームを擁しており、AI を構築してきました。 それらの原因となるシステム 女性化されたデジタルアシスタントは言葉の暴力に対して「キャッチ・ミー・イフ・ユー・キャン」の態度で対応できる」と研究者らは論文に書いている。 報告。 「ほとんどの音声アシスタントの音声は女性であるため、女性は…従順で、 ボタンを押すか、「ねえ」などの単刀直入な音声コマンドで利用できる、熱心なヘルパーです。 'わかりました'。 補佐官には、指揮官の要求を超える権限はありません。 口調や敵意に関係なく、命令を尊重し、質問に答えます。」
ユネスコは、この問題に対する最善の解決策は、 ジェンダーニュートラルな声 そのA.I. アシスタントが使用できます。 同団体はまた、攻撃的で暴力的な言葉や侮辱を遮断し、阻止する対応やシステムを組み込むことも提案している。 研究者らは、ハイテク企業は有害な固定観念の拡大を避けるために、音声アシスタントを従順な人間として位置づけることもやめるべきだと考えている。
編集者のおすすめ
- AIアシスタントが子どもの社会的発達に悪影響を及ぼしていると専門家が警告
- GoogleとAlexaをいじるペットのまとめ
- Home Depot の新しい Hubspace 互換アイテムにはスマート プラグが含まれます
- 1 つのスマート ホーム エコシステムにすべてを統合することは可能ですか?
- Google Home(Nest Audio)vs. アマゾンエコー
ライフスタイルをアップグレードするDigital Trends は、読者が最新ニュース、楽しい製品レビュー、洞察力に富んだ社説、ユニークなスニーク ピークをすべて提供して、ペースの速いテクノロジーの世界を監視するのに役立ちます。