世界最高の刑事との頭脳戦に巻き込まれた首謀者を描いた、紆余曲折のある映画を想像してみてください。
コンテンツ
- ディープフェイク問題
- 検出器を騙す
- ディープフェイクの猫とネズミのゲーム
犯罪者は、熟練した手品と、地球上の事実上誰にでも変装できる驚異的な能力を使って、大規模な自信を持ったトリックを成功させようとしています。 彼は自分の仕事がとても上手なので、人々に実際には起こらなかったものを見たと信じ込ませることができます。
おすすめ動画
しかし、そのとき私たちは探偵と出会います。 彼女は優秀で、どんな泥棒の「情報」も見抜くことができる、何事にも手段を選ばないタイプです。 彼女は何を探すべきかを知っており、ほんの些細な動作、つまり眉毛を上げたり、母音を落としたりするだけで、何か問題があることを知らせるのに十分です。 彼女は私たちの敵対者を捕まえた唯一の人物であり、今再び彼の追跡に熱中しています。
関連している
- Digital Trends の Tech For Change CES 2023 アワードを受賞
- メタは AI アップグレードでウィキペディアを大幅に強化したいと考えている
- AI が実際に知覚力を持つようになる時期をどうやって知ることができるのでしょうか?
ただし、問題があります。泥棒はそれを知っています。 彼女 何を探すべきかを知っています。 その結果、主人公が気付かないうちに、彼はゲームを変更してしまいました。
ディープフェイク問題
これは本質的に、これまでのディープフェイクとディープフェイク検出の物語です。 ディープフェイクは、人々の肖像をデジタル的に変更できる合成メディアの一種です。 フェイス/オフ A.I.監督によるリメイク版 研究者らは、2017 年にこの研究分野に出現して以来、懸念の原因となってきました。 ディープフェイクの多くは気楽なものですが、 アーニー・フォー・スライ・スタローン ターミネータ)、それらは潜在的な脅威でもあります。 ディープフェイクは、本物のように見える偽のポルノビデオを作成するために使用されており、政治的でっち上げや金融詐欺にも使用されてきました。
このようなデマがさらに大きな問題にならないように、誰かが介入して、いつディープフェイクが使用されているのか、いつ使用されていないのかを明確に言える必要がある。
「ディープフェイク検出器は、不気味な谷だけでなく、最も小さな不気味な穴を画像から精査することで、完全に正しくないディープフェイクの詳細を探すことによって機能します。」
最初のディープフェイク検出器が登場するまでに時間はかかりませんでした。 2018 年 4 月までに取材しました これを行うための初期の取り組みの 1 つ、ドイツのミュンヘン工科大学の研究者によって構築されました。 ディープフェイク技術自体と同じように、AI が使用されていました。 — 今回のみ、その作成者は偽物を作成するためではなく、偽物を見分けるためにそれを利用していました。
ディープフェイク検出器は、ディープフェイクのそうでない詳細を探すことによって機能します。 とても 不気味な谷だけでなく、最も小さな不気味な甌穴も画像から探し出すことができます。 画像から顔データを切り取ってニューラル ネットワークに渡し、その正当性を判断します。 プレゼントの詳細には、再現度の悪いまばたきなどが含まれる場合があります。
しかし今回、カリフォルニア大学サンディエゴ校の研究者らは、いわゆる敵対的サンプルをビデオフレームに挿入することでディープフェイク検出器を破る方法を考案した。 敵対的な例は、AI の魅力的でありながら恐ろしい不具合です。 マトリックス。 これらは、最も賢い認識システムであっても、たとえば次のようなことを騙すことができます。 亀を銃だと思っている、またはエスプレッソは野球です。 これは、画像に微妙にノイズを追加することで行われ、ニューラル ネットワークが誤った分類を行うようにします。
ライフルを殻を剥いた爬虫類と間違えたようなものだ。 または、本物のビデオを偽ったもの。
検出器を騙す
「最近、リアルなディープフェイク動画を生成する方法が急増しています。」 パース・ニーハラカリフォルニア大学サンディエゴ校のコンピュータ工学大学院生である彼はデジタルトレンドに語った。 「これらの操作されたビデオは悪意のある目的に使用される可能性があるため、ディープフェイクビデオを確実に検出できる検出器の開発に多大な努力が払われてきました。 例えば、 フェイスブック は最近、ディープフェイク検出器の開発に関する研究を加速するために、ディープフェイク検出チャレンジを開始しました。 [しかし] これらの検出方法は、偽のビデオと本物のビデオのデータセットに対して 90% 以上の精度を達成できますが、私たちの研究では、これらの検出方法は攻撃者によって簡単に回避される可能性があることが示されています。 攻撃者は、人間の目にはほとんど知覚できない慎重に作成されたノイズをビデオの各フレームに挿入し、被害者検出器によって誤分類される可能性があります。」
攻撃者は、検出器のアーキテクチャやパラメータに関する特別な知識を持っていなくても、これらのビデオを作成できます。 これらの攻撃は、YouTube などのプラットフォームでオンラインで共有された場合と同様に、ビデオが圧縮された後も引き続き機能します。
テストしたところ、この方法は、検出器モデルへのアクセスが与えられた場合、検出システムを 99% 以上欺くことができました。 ただし、成功レベルが最も低くても、検出器モデルに関する情報がまったく知られていない圧縮ビデオの場合でも、78.33% の確率で検出器を破りました。 それは素晴らしいニュースではありません。
研究者らはコードが悪用される可能性を理由に公開を拒否しているとニーハラ氏は指摘した。 「私たちのコードを使用して生成された敵対的なビデオは、一部のソーシャルメディア(プラットフォーム)で制作中に使用されている他の目に見えないディープフェイク検出器をバイパスする可能性があります」と彼は説明しました。 「私たちはディープフェイク検出システムの構築に取り組んでいるチームと協力しており、私たちの研究を利用してより堅牢な検出システムを構築しています。」
ディープフェイクの猫とネズミのゲーム
もちろん、話はこれで終わりではありません。 映画の例えに戻ると、これはまだ映画の開始からわずか 20 分程度です。 私たちはまだ、泥棒が彼女をだまされていると思っていることに刑事が気づく場面まで到達していません。 あるいは、泥棒が、探偵が彼女のことを知っていることを知っていることに気づくところまで。 または.. イメージがわかります。
ディープフェイク検出をめぐるこのようないたちごっこは、今後も永久に続く可能性が高く、サイバーセキュリティに携わったことのある人なら誰でもよく知っている。 悪意のあるハッカーが修正バージョンの脆弱性を発見する前に、脆弱性を発見し、開発者によってブロックされます。その後、開発者によって修正バージョンが再度調整されます。 無限に続けてください。
「はい、ディープフェイクの生成および検出システムは、ウイルスおよびウイルス対策のダイナミクスに厳密に従っています。」 シェジーン・フセイン、カリフォルニア大学サンディエゴ校コンピュータ工学博士号。 と学生はデジタルトレンドに語った。 「現在、ディープフェイク検出器は、既存のディープフェイク合成技術を使用して生成された本物のビデオと偽のビデオのデータセットでトレーニングされています。 このような検出器が将来のディープフェイク生成システムに対して絶対に安全であるという保証はありません…先を行くために 軍拡競争では、検出方法を定期的に更新し、今後のディープフェイク合成技術に合わせてトレーニングする必要があります。 また、トレーニング中に敵対的なビデオを組み込むことで、敵対的な例に対して堅牢にする必要もあります。」
あ この作品について説明した紙「Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples」と題された論文が、最近 WACV 2021 仮想カンファレンスで発表されました。
編集者のおすすめ
- AI がブレイキング・バッドをアニメ化 - それは恐ろしい
- なぜAIが世界を支配しないのか
- 目の錯覚は次世代の AI の構築に役立つ可能性がある
- 最後の仕上げ: 科学者はどのようにロボットに人間のような触覚を与えているのか
- アナログAI? クレイジーに聞こえるかもしれないが、それは未来かもしれない
ライフスタイルをアップグレードするDigital Trends は、読者が最新ニュース、楽しい製品レビュー、洞察力に富んだ社説、ユニークなスニーク ピークをすべて提供して、ペースの速いテクノロジーの世界を監視するのに役立ちます。