研究者が音声コマンドで携帯電話をハッキングする方法を発見

音声コマンド ハック Google Now Nexus 6
一見無害に見えるアプリに潜むマルウェアと 致命的な絵文字の文字列、スマートデバイスの安全を守るための戦いは終わりがありません。 音声コントロールであっても、指紋や顔などの一意の識別子であっても、あらゆる新しいインタラクション モード 認識は、ハッカーが周囲のテクノロジーにアクセスして操作できる別の場所を提供します。 私たち。

カリフォルニア大学バークレー校とジョージタウン大学の研究者たちはこのことを痛感しており、昨年、次のことを決定したのです。 どれほど脆弱かを正確に調査する 私たちの多くのコンピューティング デバイスに搭載されている音声認識ソフトウェアは、実際にはそうです。 彼らが焦点を当てたのは、 Googleアシスタント、システム全体に存在します アンドロイド iOS 上の Google アプリ内で、音声コマンドを Google アシスタントが理解できる程度に文字化けする方法を開発しましたが、ほとんどの人間には理解できませんでした。

おすすめ動画

研究者らは、「OK Google」などのいくつかの難読化されたコマンドの認識をテストし、ソフトウェアがメッセージを解読する能力を人間と比較して測定しました。 彼らが発見したのは、特に「OK Google」の場合、参加者のパネルは、 スクランブルされたフレーズを識別できる確率は 22% でしたが、アシスタントは 95% の確率でそれを理解しました。 時間。 さらに、このソフトウェアは、通常の発音の「OK Google」よりも難読化されたバージョンの解読の方が優れており、認識率はわずか 90% でした。

関連している

  • AIアシスタントが子どもの社会的発達に悪影響を及ぼしていると専門家が警告
  • Amazon Echoは米国の市場シェアが低下しているにもかかわらず、依然としてスマートスピーカーの王者である
  • Alexa スピーカーは、悪意のあるオーディオ トラックによってハッキングされる可能性があります。 そしてレーザー。

デモボイスハック

一見すると、これらの歪んだコマンドの多くは、ただスピードが速くなっただけで、あいまいな音声のリズムを伴う静的なもののように見えるかもしれません。 人間は、そのフレーズを聞く前にそのフレーズが何であるかを知っていれば、識別が非常に簡単になります。 しかし、その情報がなければ、多くの場合、私たちは途方に暮れてしまいます。

この研究では、ごちゃ混ぜになったコマンドの中には、他のコマンドよりも理解しやすいものがあることが指摘されています。 たとえば、「911 に電話して」の人間の認識率は 94 パーセントでしたが、Google の認識率はわずか 40 パーセントでした。 アシスタント、おそらくこれはアメリカ英語話者の大多数が前提条件となっているフレーズだからでしょう。 聞く。 しかし、ニッチなコマンドの適切な組み合わせは、私たちが作業している間にパーソナルアシスタントがそれを受け入れるのに十分なだけ変更されました。 ほとんどの消費者向けデバイスの音声コントロールに何らかの形式の機能が備わっていないことを考えると、頭を悩ませ続けることは明らかなリスクをもたらします。 認証。

音声ハッキングから守るために何ができるでしょうか?

この種の音声を対象とした操作に対する数少ない予防策の 1 つは、多くのコマンドでアシスタントに後で確認を要求することです。 しかし、アトランティック紙が次のように指摘しているように、 研究に関する彼らの記事、それは歪んだ「はい」でクリアできる小さな障害にすぎません。ユーザーが何が起こっているのか理解できないほどすべてのことが起こった場合、時間内にそれを止めることはできません。

ごちゃ混ぜになったコマンドの中には、他のコマンドよりも理解しやすいものもあります。

チームはその発見を追跡し、Google アシスタント、Apple の Siri、Amazon のようなサービスを活用する方法を提案しました。 アレクサ これらの攻撃を阻止できる可能性があり、企業が導入しようとする可能性のあるさまざまな方法があることが判明しました。 音声 CAPTCHA などの一部の防御手段は、人間のユーザーと機械を区別するための最終確認として導入される可能性があると研究者らは指摘していますが、 音声 CAPTCHA を強化するアルゴリズムは比較的時代遅れであり、音声認識技術の進歩に追いついていないことがわかっています。 言うまでもなく、CAPTCHA に対処するのは腹立たしいものです。

より複雑なソリューションは、所有者の声に合わせて認識を調整することですが、これは多くのサービスがすでに限られた容量で採用しています。 しかし、報告書は、この提案にはデバイス側のトレーニングが必要であり、Amazon Echo のような複数の人が使用することを目的としたガジェットには問題が生じることを認めています。 チームは、最も実用的で効果的な防御策の 1 つは、音声をわずかに劣化させるフィルターであると判断しました。 コマンドの品質。難読化されたフレーズのほとんどをデバイスで認識できないようにレンダリングし、人間のフレーズは通過できるようにします。 を通して。

この種の音声ベースの攻撃の報告は、存在しないわけではないにせよ、まれではありますが、常に役に立ちます。 脆弱性が存在する領域を認識し、問題が実際に発生し始める前に脆弱性を抑制できるようにする 上。 ここで行われた研究のおかげで、悪魔のようなささやきの波がスマートフォンに何をすべきかを指示し始めた場合に備えて、私たちはもう少し備えることができます。

編集者のおすすめ

  • ChatGPT のことは忘れてください — Siri と Google アシスタントはこれら 4 つのことをより良く実行します
  • SiriとGoogleアシスタントはBlack Lives Matterをサポートすると発表
  • Alexa は、スポーツチームが負けたときに、より多くの感情を表現できるようになりました
  • 新しい研究により、スマート スピーカーはレーザーによって侵害される可能性があることが判明
  • Googleの新しいプライバシーアップデートでアシスタントの音声コマンド履歴を削除できるようになりました

ライフスタイルをアップグレードするDigital Trends は、読者が最新ニュース、楽しい製品レビュー、洞察力に富んだ社説、ユニークなスニーク ピークをすべて提供して、ペースの速いテクノロジーの世界を監視するのに役立ちます。