画像認識AI 弱点がある。 これで直るかもしれない

おそらくご存知でしょう ディープフェイク、実際には起こらなかったものを見たり聞いたりするように人々を騙すことができる、デジタル的に変更された「合成メディア」。 敵対的な例は、画像認識 AI のディープフェイクのようなものです。 私たちには少しも奇妙に見えませんが、それらはマシンを混乱させる可能性があります。

コンテンツ

  • 敵対的な攻撃を防御する
  • まだやるべきことはたくさんあります

何年か前マサチューセッツ工科大学のコンピューターサイエンス・人工知能研究所(CSAIL)の研究者らは、次のことを発見した。 表面をわずかに変更するだけで、洗練された画像認識アルゴリズムさえだまして、紛らわしい物体に変えることができます。 テクスチャー。 これらも些細な取り違えではありませんでした。

画像認識カメがライフルとして認識される

研究者らのデモンストレーションでは、最先端のニューラル ネットワークを使用して、3D プリントされたカメを見ると代わりにライフルが見えることが可能であることを示しました。 あるいは、野球ボールを見つめて、それがエスプレッソであるという結論に達することもあります。 このような視覚失認が人間に現れるとしたら、それはオリバー・サックス氏の古典のような本に掲載されるような神経学的事例研究となるだろう。 妻を帽子と間違えた男.

おすすめ動画

敵対的な例は、視覚的な AI がどのように機能するかという点で、興味深い脆弱性を表しています。 システムは世界を見ます。 しかし、これらは、目新しいおもちゃのカメとライフルを混同する欠陥から予想されるように、潜在的に憂慮すべき欠陥でもあります。 これは、研究者がパッチを適用する方法を必死に考えているものです。

今回、MIT の別の研究者グループが、「敵対的」入力を回避するのに役立つ新しいシステムを考案しました。 その過程で、彼らは、ハッカーによって実装された場合、致命的な効果をもたらす可能性のある、敵対的な例の率直に言って恐ろしい使用例を想像しました。

シナリオは次のとおりです。自動運転車は、周囲の世界を認識する能力がますます向上しています。 しかし、突然、車の視覚入力ベースの車載カメラが意図的または偶然に、目の前にあるものを識別できなくなったらどうなるでしょうか? 道路上の物体を誤って分類すると(歩行者を正しく識別して配置しないなど)、実際に非常に悪い結果を招く可能性があります。

敵対的な攻撃を防御する

「私たちのグループは数年間、ディープラーニング、ロボット工学、制御理論のインターフェースに取り組んできました。 ディープ RL [強化学習] を使用して、社会を意識した方法で歩行者の周囲を移動できるようにロボットを訓練することに取り組んでいます。」 マイケル・エヴェレットMIT航空宇宙学部の博士研究員である同氏はデジタルトレンドに語った。 「これらのアイデアをより大型で高速な車両にどのように組み込むかを考えていたとき、安全性と堅牢性の問題が最大の課題になりました。 私たちは、ロバストな制御とロバストな最適化の観点から、深層学習におけるこの問題を研究する絶好の機会であると考えました。」

深層強化学習による社会を意識したモーションプランニング

強化学習は、機械学習への試行錯誤ベースのアプローチであり、研究者によって使用されてきたことで有名です。 コンピュータにビデオゲームの遊び方を学ばせる 方法を明確に教えられないまま。 チームの新しい強化学習および深層ニューラル ネットワーク ベースのアルゴリズムは、CARRL と呼ばれます。これは、深層強化学習のための認定された敵対的ロバストネスの略です。 本質的に、それは ニューラルネットワーク 見ているものに関してはさらに懐疑的になります。

フォード モーター カンパニーの支援を受けた研究者のデモンストレーションの 1 つで、研究者らは古典的な Atari ゲームをプレイできる強化学習アルゴリズムを構築しました。 ポン. しかし、以前の RL ゲーム プレイヤーとは異なり、彼らのバージョンでは、AI を投げ飛ばす敵対的攻撃を適用しました。 ゲームのボールの位置をエージェントが評価し、実際よりも数ピクセル低いと思わせる だった。 通常、これにより AI が プレイヤーは大きな不利な立場にあり、コンピュータ相手に何度も負けてしまいます。 ただし、この場合、RL エージェントはボールが飛んだすべての場所について考えます。 できた そして、位置がずれてもパドルを外さない場所にパドルを置きます。

「この新しいカテゴリの堅牢なディープラーニング アルゴリズムは、有望な AI を実現するために不可欠です。 テクニックを現実世界に。」

もちろん、エベレット氏もすぐに認めているように、ゲームは現実世界よりもはるかに単純化されています。

「現実世界には、不完全なセンサーや敵対的な攻撃など、ビデオゲームよりもはるかに不確実性があり、ディープラーニングを騙すのに十分な可能性があります。 道路上の点をスプレーでペイントするなど、危険な決定を下すためのシステム(自動運転車が別の車線に逸脱する可能性がある)」と彼は述べた。 と説明した。 「私たちの研究は、不完全な測定に対して確実に堅牢なディープ RL アルゴリズムを提供します。 重要なイノベーションは、現在行われているように測定値を盲目的に信頼するのではなく、アルゴリズムが次のように考えることです。 考えられるすべての測定結果を検討し、最悪の場合を考慮した決定を下します。 結果。"

別のデモンストレーションでは、シミュレートされた運転コンテキストで、エージェントの衝突を望んでいる敵によってセンサーが攻撃されている場合でも、このアルゴリズムが衝突を回避できることを示しました。 「この新しいカテゴリの堅牢なディープラーニング アルゴリズムは、有望な AI を実現するために不可欠です。 テクニックを現実世界に取り入れたのです」とエベレット氏は語った。

まだやるべきことはたくさんあります

この取り組みはまだ初期段階にあり、やるべきことはまだたくさんあります。 また、一部のシナリオでは、これによって AI が引き起こされる可能性があるという潜在的な問題もあります。 エージェントが保守的に動作しすぎるため、効率が低下します。 それにもかかわらず、これは将来に大きな影響を与える可能性のある貴重な研究です。

「[特定の種類の]敵対的な例からの保護に焦点を当てた[他の研究プロジェクトがあり、ニューラルネットワークの仕事は次のとおりです] 画像を分類して、それが正しいか間違っているかのどちらかで、物語はそこで終わります」と、古典的なカメ対ライフルについて尋ねられたとき、エベレット氏は語った。 問題。 「私たちの研究はこれらのアイデアのいくつかに基づいていますが、エージェントがアクションを実行し、それがうまくいった場合に報酬を得るという強化学習に焦点を当てています。 したがって、私たちは「これはカメだと私が言ったら、その決定が将来どのような影響を与えるのか?」という長期的な問題に注目しており、そこに私たちのアルゴリズムが本当に役立つのです。 私たちのアルゴリズムは、カメかライフルのどちらかを選択した場合の最悪の場合の将来の影響を考慮します。 AI が重要なセキュリティ問題を解決するための重要な一歩となる可能性があります。 エージェントの決定は長期にわたる 効果。"

研究について説明した論文は、 電子プレプリント リポジトリ arXiv で閲覧可能.

編集者のおすすめ

  • アナログAI? クレイジーに聞こえるかもしれないが、それは未来かもしれない
  • トレンドを分析する AI は次のとおりです。 テクノロジー業界で次の大きな出来事になると思う
  • カリフォルニアには停電の問題があります。 巨大フロー電池が解決策となるでしょうか?
  • アルゴリズム アーキテクチャ: AI を使用させるべきか 私たちのために建物を設計してくれるでしょうか?
  • 感情を感知するAI ここにあります。次の面接で取り上げられるかもしれません