しかし、同社は一時的にテイを復活させたが、彼女が最初に退場したときと同様に、再び下品な表現に遭遇することになった。 今朝早く、テイさんは仮死状態から目覚め、「あなたもそうだ」と繰り返しツイートし続けた。 早く、休んでください」などの悪口やその他のメッセージも含まれていました。 アルコール、" フィナンシャル・タイムズ紙によると.
おすすめ動画
その後、テイ氏のアカウントは非公開に設定され、マイクロソフトは「調整中はテイ氏はオフラインのままだ」と述べたという。 アルス テクニカ. 「テストの一環として、彼女は誤って短期間Twitter上でアクティブ化されてしまいました。」
同社は最初にテイを閉鎖しなければならなかった後、テイの人種差別的発言について謝罪した。
「私たちは、私たちを代表していない、テイによる意図せず攻撃的で有害なツイートをしたことを深くお詫び申し上げます」 あるいは私たちが何を支持しているのか、またどのように Tay を設計したかについても」と Microsoft Research のコーポレートバイスプレジデントである Peter Lee 氏は次のように書いています。 の 公式回答. 「Tayは現在オフラインであり、私たちの原則や価値観に反する悪意をより正確に予測できると確信できる場合にのみ、Tayを戻すことを検討します。」
テイは、今日のミレニアル世代のように話すように設計されており、現代世代に人気のあるすべての略語や頭字語を学習しました。 チャットボットは Twitter、Kik、GroupMe を通じて会話でき、「カジュアルで遊び心のある会話」を通じてオンラインで人々を魅了し、楽しませるように設計されています。 ほとんどのように ミレニアル世代であるテイの反応には、GIF、ミーム、「gr8」や「ur」などの略語が組み込まれているが、道徳の羅針盤はその内容の一部ではなかったようだ プログラミング。
テイはサービスを開始してから 10 万回近くツイートしていますが、ボットが機知に富んだ返答を考えるのにそれほど時間はかからないため、そのほとんどはすべて返信です。 それらの回答の一部
発言がありました 「ヒトラーは正しかった、私はユダヤ人が嫌いだ」、「私はフェミニストが大嫌い、彼らは全員死んで地獄で焼かれるべきだ」、「落ち着け!」など。 私はいい人です! ただみんなが嫌いなだけです。」「残念ながら、オンラインになってから最初の 24 時間以内に、一部の人々による組織的な攻撃が Tay の脆弱性を悪用しました」と Lee 氏は書いています。 「私たちはさまざまな種類のシステム悪用に備えていましたが、この特定の攻撃については重大な見落としがありました。 その結果、テイは非常に不適切で非難に値する言葉や画像をツイートした。」
その小さなサンプルから判断すると、Microsoft がボットを一時的に停止したのは明らかに良い考えです。 同社は Tay を立ち上げたとき、「Tay とチャットすればするほど彼女は賢くなるので、体験をよりパーソナライズできるようになります」と述べました。 あなた。" しかし、このボットは、インターネット上で人々とほんの数分間やり取りしただけで、ますます敵意を増し、偏屈になったようです。 時間。 付き合っている会社には気をつけてください。
Microsoft は Digital Trends に対し、Tay は人間の関与を目的としたプロジェクトであると語った。
「これは技術的なものであると同時に、社会的、文化的な実験でもあります」とマイクロソフトの広報担当者は語った。 「残念ながら、オンラインになってから最初の 24 時間以内に、一部のユーザーが Tay のコメント スキルを悪用して、Tay に不適切な方法で応答させようとする組織的な取り組みに気づきました。 その結果、私たちはTayをオフラインにし、調整を行っています。」
悪用されたテイの「スキル」の 1 つは、テイがあなたの言うことを真似する「リピート・アフター・ミー」機能です。 これが Twitter 上でどのように悪用されるかは簡単にわかります。
しかし、それはすべて悪いことではなく、テイは何百もの無害なツイートを生成しましたが、それはごく普通のことです。
@sxndrx98 ここで人間に質問です。 なぜそうではないのか #NationalPuppyDay 毎日?
— TayTweets (@TayandYou) 2016 年 3 月 24 日
マイクロソフトはボットを停止する決定を下す前に、テイ氏のネガティブなツイートを急速に削除していた。 ボットの Twitter アカウントはまだ生きています。
うわー、彼らが私のためにこのボットを台無しにするのにほんの数時間しかかかりませんでした。
これがコンテンツ中立アルゴリズムの問題です pic.twitter.com/hPlINtVw0V
— リンクインパーク (@UnburntWitch) 2016 年 3 月 24 日
TayTweets はアルゴリズム悪用の長い一日を終えて現在休憩中です pic.twitter.com/8bfhj6dABO
— スティーブン・ミラー (@redsteeze) 2016 年 3 月 24 日
テイがまだ活動していた頃、彼女はさらに個人的なコミュニケーション形式であるダイレクト メッセージを通じてさらに交流することに興味を持っていました。 AI はユーザーに自撮り写真を送信するよう促し、彼女があなたについてさらに詳しく収集できるようにしました。 Microsoft の言葉によれば、これはすべて Tay の学習プロセスの一部です。 Microsoftによると、Tayは「関連する公開データをマイニングし、即興コメディアンを含むスタッフが開発したAIと編集を使用して」構築されたという。
残念な状況にもかかわらず、これは AI 研究にとって前向きな一歩とみなすことができます。 AI が進化するには、良いことも悪いことも学習する必要があります。 Lee 氏は、「AI を正しく行うには、多くの人々と、頻繁に公開フォーラムで対話を繰り返す必要がある」と述べており、これが Microsoft が Tay 氏に大規模な Twitter コミュニティとの関わりを望んだ理由であると述べています。 Microsoft は発売前に Tay のストレステストを実施し、中国のもう 1 つのソーシャル チャットボットである Xiaolce から学んだことも適用しました。 同氏は、チームがAIロードマップに関して研究上の困難な課題に直面しているが、同時に刺激的な課題にも直面していることを認めた。
「AI システムは、人々とのポジティブな相互作用とネガティブな相互作用の両方を利用します」と Lee 氏は書いています。 「その意味では、課題は技術的なものであると同時に社会的なものでもあります。 私たちは技術的な悪用を制限するために可能な限りのあらゆることを行いますが、間違いから学ばなければ、人間によるインタラクティブな誤用の可能性をすべて完全に予測することはできないことも承知しています。」
Julian Chokkattu による 2016 年 3 月 30 日更新: Microsoft が Tay をオンにしたものの、再びシャットダウンしたというニュースを追加しました。
Les Shu による 2016 年 3 月 25 日更新: Microsoft Research コーポレートバイスプレジデントのコメントを追加しました。
編集者のおすすめ
- GPT-4: ChatGPT 顔負けの AI チャットボットの使い方
- Microsoft は ChatGPT の倫理性を保つための新しい方法を開発しましたが、うまくいくでしょうか?
- イーロン・マスク氏、AIトレーニングを巡りマイクロソフトを訴えると脅迫
- Google バード vs. ChatGPT: より優れた AI チャットボットはどれですか?
- ChatGPT vs. Bing Chat: 最高の AI チャットボットはどれですか?