ソーシャル メディアのモデレーション: AI で何ができるか キャッチ -- そしてどこで失敗するのでしょうか?

中小企業に最適なソーシャル メディア管理ツール
パニサン・ファクシームアン/123RF
ヘイトスピーチ、過激主義、フェイクニュース、その他のコミュニティ基準に違反するコンテンツに対する批判 最大のソーシャルメディアネットワークを持っており、ポリシーを強化し、スタッフを追加し、再作業を行っています アルゴリズム。 ソーシャル (ネット) ワーク シリーズでは、ソーシャル メディアのモデレーションを調査し、何が機能し、何が機能しないかを検討しながら、改善の可能性を検討します。

から 自殺者のビデオ YouTube で 「ユダヤ人嫌い」をターゲットにした広告、 の上 フェイスブック、ソーシャルメディアプラットフォームは、その亀裂をすり抜けてしまう不適切なコンテンツに悩まされています。 多くの場合、プラットフォームの対応は、不適切なコンテンツをより適切に識別するためのよりスマートなアルゴリズムを実装することです。 しかし、人工知能は実際に何を捕捉できるのでしょうか、どこまで信頼すべきでしょうか、そしてどこで悲惨な失敗をするのでしょうか?

「A.I. 不快な言葉を拾うことができ、画像を非常によく認識できます。 画像を識別する力はそこにあります」と、最高デジタル責任者のウィンストン・ビンチ氏は言います。 ドイツ語、A.I.を活用したクリエイティブエージェンシーです。 Target から Taco Bell までのブランドのデジタル キャンペーンの作成に携わりました。 「灰色の部分が意図になります。」

A.I. テキストと画像の両方を読み取ることができますが、精度は異なります

自然言語処理を使用して、A.I. 複数の言語にわたるテキストを認識するようにトレーニングできます。 たとえば、コミュニティのガイドラインに違反する投稿を見つけるように設計されたプログラムに、人種的中傷や過激派のプロパガンダに関連する用語を検出するように教えることができます。

モバイル トレンド Google アシスタント AI

A.I. また、画像を認識したり、ある種のヌードを防止したり、かぎ十字などのシンボルを認識したりするように訓練することもできます。 多くの場合、これはうまく機能しますが、絶対確実というわけではありません。 たとえば、Google フォトは、肌の色が浅い人の画像に次のキーワードをタグ付けしていることで批判されました。 "ゴリラ。" 何年も経った今でも、Google はこの問題の解決策を見つけられず、代わりに削除することを選択しました。 の サルとゴリラをタグ付けするプログラムの機能 全体的に。

単語の意味の進化に応じて、または文脈の中で単語がどのように使用されているかを理解するために、アルゴリズムも更新する必要があります。 たとえば、LGBT の Twitter ユーザーは最近、#gay や #bisexex などの用語の検索結果が欠落していることに気づき、サービスが検閲しているのではないかと感じる人もいます。 Twitterはこの間違いを謝罪し、原因は次のとおりであると述べた。 時代遅れのアルゴリズム それは、その用語でタグ付けされた投稿を攻撃的な可能性があるものとして誤って識別していました。 Twitterは、アルゴリズムが投稿の文脈でその用語を考慮するはずだったが、これらのキーワードについてはそれを怠っていたと述べた。

A.I. 偏見がある

ゴリラのタグ付けの失敗は、別の重要な欠点をもたらします。 A.I. 偏見がある. どうしてコンピューターにバイアスがかかるのか疑問に思うかもしれませんが、A.I. 人々がタスクを完了するのを観察するか、それらのタスクの結果を入力することによってトレーニングされます。 たとえば、写真内のオブジェクトを識別するプログラムは、最初に手動でタグ付けされた何千枚もの画像をシステムに供給することによってトレーニングされることがよくあります。

AI を可能にするのは人間の要素です。 タスクを実行しますが、同時に人間の偏見を与えます。

AI を可能にするのは人間の要素です。 一般的なソフトウェアでは以前は不可能だったタスクを完了することができますが、その同じ人間の要素が、誤って人間のバイアスをコンピュータに与えてしまいます。 A.I. プログラムの有効性はトレーニング データと同じです。たとえば、システムに白人男性の画像が主に供給されている場合、プログラムは他の肌の色を持つ人々を識別するのが困難になります。

「一般的に、コメントからユーザーへのあらゆるものをモデレートする場合、AI には欠点が 1 つあります。 コンテンツは本質的にデザインによって意見が分かれているということです」とエグゼクティブ テクニカル担当者 PJ Ahlberg 氏は述べています。 のディレクター スティンク スタジオ ニューヨーク、A.I.を使用する代理店です。 ソーシャル メディア ボットの作成とブランド キャンペーンの管理に使用されます。

トレーニング セットが開発されると、そのデータは開発者間で共有されることが多く、これはバイアスが複数のプログラムに広がることを意味します。 アールバーグ氏は、この要因は、開発者が複数の AI を使用してプログラム内のデータセットを変更できないことを意味すると述べています。 そのため、バイアスを発見した後にそれを取り除くことが困難になります。

A.I. 意図を判断できない

A.I. 写真内の卍を検出できますが、ソフトウェアはそれがどのように使用されているかを判断できません。 たとえば、Facebookは最近、次のことについて謝罪した。 かぎ十字を含む投稿を削除する しかし、憎悪の蔓延を阻止するようテキストで嘆願する内容も添えられていた。

これはAIの失敗例です。 意図を認識すること。 Facebookは写真にタグ付けもした ネプチューンの像 性的に露骨なものとして。 さらに、画像内にヘイトシンボルや暴力が現れる可能性があるため、アルゴリズムが意図せずフォトジャーナリズム作品にフラグを立てる可能性があります。

教育目的で共有された歴史的画像も別の例です。2016 年、Facebook はその画像を投稿した後に論争を巻き起こしました。 歴史的な「ナパーム弾少女」の写真を削除 ユーザーからの圧力により、同社はヌードに対する強硬姿勢を変更し、写真を復活させるまでに何度も繰り返した。

A.I. は最初のスクリーニングとして機能する傾向がありますが、コンテンツが実際にコミュニティ標準に違反しているかどうかを判断するには、依然として人間のモデレーターが必要になることがよくあります。 AI は改善されていますが、これは変わっていない事実です。 たとえば、Facebookは今年、審査チームの規模を昨年の2倍の2万人に増員している。

A.I. 人間の作業のスピードアップに貢献しています

人間の脳は依然として必要かもしれませんが、A.I. プロセスがより効率的になりました。 A.I. どの投稿に人によるレビューが必要かを判断し、それらの投稿に優先順位を付けるのに役立ちます。 2017 年に Facebook は次のことを共有しました A.I. 自殺傾向を発見するように設計されている その結果、1 か月で 100 件の緊急通報が発生しました。 当時、 フェイスブック とAIは言いました。 また、どの投稿が人間のレビュー担当者に最初に参照されるかを決定するのにも役立ちました。

フェイスブックの気になる友人
ゲッティイメージズ/ブラックズヒープ

ゲッティイメージズ/ブラックズヒープ

「[A.I. は]長い道のりを歩んできており、確実に進歩していますが、実際には、検証する人間の要素が依然として非常に必要です。 適切な言葉、適切な内容、適切なメッセージを修正しているということです」と Stink のマネージング ディレクター、クリス メレ氏は述べています。 スタジオ。 「AI が感じる場所」 最も効果的に機能するのは、人間のモデレータを容易にし、モデレータがより迅速かつ大規模に作業できるようにすることです。 AIではないと思います。 どのプラットフォームでもほぼ 100% 自動化されています。」

A.I. は速いが、倫理は遅い

一般に、テクノロジーは法律や倫理が追いつかないほどの速さで成長する傾向があり、ソーシャル メディアのモデレーションも例外ではありません。 ビンチ氏は、その要因は、ほとんどのプログラマーが持っていない人文科学や倫理の背景を持つ従業員への需要が高まっていることを意味している可能性があると示唆しています。

彼が言うように、「私たちは今、ペース、スピードが非常に速い状況にいます。そのため、倫理的な要素があまりにも遅れないようにする必要があります。」

編集者のおすすめ

  • 著作権のせいでビデオのサウンドトラックを見つけるのが困難な場合、この AI が役立ちます。 ミュージシャンが助けてくれる
  • 8K から A.I. まで、2019 年のカメラはこうなるかもしれない
  • コンピュータはすぐに私たちを追い越すでしょう。 それはAIを作るのでしょうか? 反乱は避けられない?