
Snapchatがスタンフォード大学の機械工学の授業の一環として初めて売り込まれたとき、恐怖を感じた同コースのティーチングアシスタントは、アプリの作成者がセクスティングアプリを開発したのではないかと公然と疑問に思った。 それから 10 年も経たないうちに、Snapchat はテクノロジーが現在直面している最大の問題の 1 つである、 ネット上での「フェイクニュース」の蔓延.
コンテンツ
- フェイクニュースのシグナル?
- 長年にわたるいたちごっこ
この目標を念頭に置いて、Snap, Inc. の研究部門である Snap Research は、 — 最近、オンラインでフェイクニュース記事を検出する新しい方法を見つけることを目的としたカリフォルニア大学リバーサイド校のプロジェクトに資金を寄付しました。 の UC Riverside が開発したアルゴリズム 報道によると、最大 75% という優れた精度レベルでフェイク ニュース ストーリーを検出できるとのことです。 Snap のサポートにより、これをさらに改善したいと考えています。
おすすめ動画
「私が理解しているところによると、彼らはこの問題をどのように理解し、最終的に解決できるかをよく理解することに非常に興味を持っています。」
「(この問題を)考えると、Snap は最初に思い浮かぶ企業の 1 つではありません。」 ヴァゲリス・パパレクサキス、カリフォルニア大学リバーサイド校のコンピュータサイエンス&エンジニアリング学部の助教授はデジタルトレンドに語った。 「とはいえ、スナップはコンテンツを扱う会社です。 私の理解では、彼らはこの問題をどのように理解し、最終的に解決できるかをよく理解することに非常に興味を持っています。」
カリフォルニア大学リバーサイド校の研究が、フェイクニュースのサイクルを打破しようとする他の数十、おそらくは数百の研究プロジェクトと異なる点は、プロジェクトの野心です。 これは単純なキーワード ブロッカーではなく、特定の URL を全面的に禁止することを目的とするものでもありません。 また、おそらく最も興味深いのは、物語に含まれる事実に特に興味を持っていないことです。 これにより、真の自動化ではなく人間の入力と評価に依存する Snopes のようなファクトチェック Web サイトとは区別されます。
「私は人間の注釈をあまり信用しません」とパパレクサキス氏は言う。 「私が人間を信頼していないからではありませんが、これは本質的に最終的な答えを得るのが難しい問題です。 これに対する私たちの動機は、データだけを見てどれだけのことができるか、また、人間によるアノテーションの使用を、たとえ使用するとしても最小限にできるかどうかを考えることにあります。」
フェイクニュースのシグナル?
新しいアルゴリズムは、ニュース記事からできるだけ多くの「シグナル」を調べ、これを使用して記事の信頼性を分類しようとします。 パパレクサキス氏は次のように述べた。「誰がその記事をシェアしたのか? 彼らはどのようなハッシュタグを使用しましたか? 誰が書いたの? どこの報道機関のものですか? Webページはどのように見えますか? 私たちはどの要因が重要で、それらがどの程度影響を及ぼしているかを解明しようとしています。」
たとえば、ハッシュタグ #LockHerUp は、それ自体で記事がフェイク ニュースであることを必ずしも裏付けるわけではありません。 ただし、Twitter で記事を共有するときにこの接尾辞を追加すると、ストーリーにある種の傾きがあることが示唆される可能性があります。 これらの手がかりを十分に加えれば、個々の部分が合計されて明らかな全体が得られるという考えです。 言い換えれば、アヒルのように歩き、アヒルのように鳴く場合、それはアヒルである可能性があります。 あるいは、この場合は、よちよちと鳴き声を上げている、オルタナ右翼のロシアのアヒルのボットです。


「私たちの関心は、早い段階で何が起こっているのかを理解し、ネットワークに『感染』し始める前の初期段階でどのようにフラグを立てることができるかを理解することです」とパパレクサキス氏は続けた。 「現時点での私たちの関心は、特定の記事の内容とコンテキストから何を絞り出せるかを検討することです。」
Papalexakis のグループが開発したアルゴリズムは、テンソル分解と呼ばれるものを使用して、ニュース記事に関するさまざまな情報ストリームを分析します。 テンソルは多次元の立方体であり、さまざまなコンポーネントを多数含むデータのモデリングと分析に役立ちます。 テンソル分解を使用すると、テンソルを特定のパターンまたはトピックを表す基本情報に分割することで、データ内のパターンを発見することができます。
「注釈付き記事の数が途方もなく少ない場合でも、非常に高いレベルの精度を実現できる可能性があります。」
このアルゴリズムはまずテンソル分解を使用して、可能性のあるフェイク ニュース ストーリーをグループ化する方法でデータを表現します。 次に、アルゴリズムの第 2 層は、互いに近いとみなされる記事を接続します。 これらの記事間の関連性をマッピングすることは、「連帯による罪」と呼ばれる原則に基づいています。 2 つの記事間のつながりは、それらが 1 つの記事に似ている可能性が高いことを意味します。 別の。
この後、グラフに機械学習が適用されます。 この「半教師あり」アプローチでは、ユーザーによって分類された少数の記事を使用し、この知識をより大規模なデータセットに適用します。 これには依然としてある程度人間が関与していますが、潜在的なフェイク ニュースを分類する他のほとんどの方法に比べて、人間による注釈の必要性は低くなります。 研究者らが宣伝する 75% の精度レベルは、2 つの公開データセットと 63,000 件のニュース記事の追加コレクションを正しくフィルタリングしたことに基づいています。
「たとえ注釈が付けられた記事の数が途方もなく少ない場合でも、非常に高いレベルの精度を実現できる可能性があります」とパパレクサキス氏は述べた。 「言語学など、人々が誤った情報とみなす可能性のあるものなど、個々の特徴を捉えようとしたシステムよりもはるかに優れています。」
長年にわたるいたちごっこ
コンピューター サイエンスの観点から見ると、なぜこの研究がヴァゲリス パパレクサキスやカリフォルニア大学リバーサイド校の他の研究者、さらには Snapchat の人々にとって魅力的なのかは簡単にわかります。 フェイクニュースと本物のニュースを区別できるだけでなく、偏った論説と真面目なジャーナリズム、または風刺記事を区別することもできます。 オニオン これはエンジニアが夢見るようなビッグデータの難問です。
しかし、より大きな問題は、このアルゴリズムがどのように使用されるのか、そして最終的にフェイクニュース現象の取り締まりに役立つかどうかです。
スナップ社のプロジェクトへの寄付(7,000ドルの「贈り物」と追加の非財務的支援に相当)は、同社がその技術を商用製品に採用することを保証するものではありません。 しかしパパレクサキス氏は、この研究が最終的には「プラットフォームへの技術移転につながる」ことを期待していると述べた。

最終的な目標は、あらゆる記事に信頼性スコアに相当するものを提供できるシステムを開発することだと彼は説明した。 理論的には、このようなスコアを使用して、ユーザーがフェイク ニュースを目にする前に、フェイク ニュースを除外することができます。
これは、メッセージ本文の画像とテキストの比率などの要素に基づいたスコアリング システムを適用する機械学習電子メール スパム フィルターと似たアイデアです。 しかし、Papalexakis 氏は、望ましいアプローチは単にユーザーにこれらのことを警告することかもしれないと示唆しました。 偽の可能性のあるカテゴリーで高いスコアを獲得したストーリー — 「その後、ユーザーにどうするかを決定させます」 それ。"
その十分な理由の 1 つは、ニュースが常にスパムとスパムにそれほどきちんと分けられるわけではないという事実です。 電子メールと同様に、ハム カテゴリ。 確かに、一部の記事は完全な捏造である可能性がありますが、他の記事はより疑わしい場合があります。つまり、直接的な嘘は掲載されていないにもかかわらず、読者を特定の方向に導くことを意図している場合があります。 これらの記事を削除すると、たとえ自分の意見と衝突する意見が見つかったとしても、さらに厄介な領域に入ります。
「これはグレーゾーンに該当します」とパパレクサキス氏は続けた。 「これを非常に偏った記事として分類しても問題ありません。 誤った情報と呼ばれるものには、さまざまなカテゴリがあります。 [大きく偏った記事] は、真っ向から虚偽の記事ほど悪くはないかもしれませんが、それでも読者に特定の視点を売り込むことには変わりありません。 偽物と偽物よりも微妙です。 偽物ではない。"
最終的には、監視を最小限に抑えたシステムを考え出したいというパパレクサキスの願望にもかかわらず、 おそらく、これは人間と人間の両方を巻き込む必要がある課題であることを彼は認めています。 機械。
「技術的な観点から見ると、これはいたちごっこだと思います」と彼は言う。 「『解決した』と言うのが正しい見方だとは思いません。 記事に関する特定の事項を理解するのに役立つツールを人々に提供することは、解決策の一部です。 この解決策は、自分自身で物事を判断し、活動的な市民として教育を維持し、物事を理解し、行間を読むのに役立つツールとなるでしょう。 この問題の多くは人々と彼らの物事の見方に依存するため、テクノロジーだけの解決策をこの問題に適用できるとは思いません。」
編集者のおすすめ
- アルゴリズムはフェイクニュースを見破る能力で人間を上回る