加害者が高齢者に電話をかけ、孫やその他の近親者のふりをするという詐欺について聞いたことがあるでしょう。 困った状態で行動し、厄介な状況に陥っているふりをし、状況を解決するために緊急の現金振込を要求するのがいつものルーチンです。 多くの祖父母はその声が孫の声ではないことに気づき電話を切るが、そうでない祖父母もいる 気づいて、心配している親戚を助けたいという気持ちが強すぎて、電話をかけてきた人に送金してしまいます。 アカウント。
あ ワシントンポスト 日曜日の報告書では、一部の詐欺師が AI を導入することで詐欺をまったく新しいレベルに引き上げていることが明らかになりました 音声を複製できる技術により、ターゲットが騙される可能性がさらに高まります。 策略。
同紙によると、このより洗練されたバージョンの詐欺を実行するには、犯罪者は「ほんの数文の音声サンプル」を必要としているという。 次にサンプルは、オリジナルの音声を使用してレプリカを作成する、広く利用可能な多くのオンライン ツールの 1 つを通じて実行され、フレーズを入力するだけで言いたいことを言うように指示できます。
関連している
- GPT-4: ChatGPT 顔負けの AI チャットボットの使い方
- ChatGPTメーカーのOpenAIは消費者保護法を巡りFTCの捜査に直面している
- AIの画期的な進歩はミツバチの脳を通じてもたらされる可能性があると科学者が語る
連邦取引委員会のデータによると、2022 年だけでも、いわゆるなりすまし詐欺の報告は 36,000 件以上あり、そのうち 5,000 件以上は電話で発生しました。 報告された損失は1100万ドルに達した。
おすすめ動画
懸念されているのは、AI ツールの効果が高まり、広く利用できるようになったことで、今後数か月、数年でさらに多くの人が詐欺に引っかかることになるのではないかということです。
ただし、この詐欺にはまだある程度の計画が必要で、決意を固めた犯人は音声の音声サンプルと、関連する被害者の電話番号を見つける必要があります。 たとえば、音声サンプルは TikTok や YouTube などの人気サイト経由でオンラインで見つけることができ、電話番号も Web 上で見つけることができます。
詐欺にもさまざまな形があります。 同紙は、弁護士を装った何者かが老夫婦に連絡し、こう告げた例を挙げている。 彼らの孫は犯罪容疑で拘留されており、法的手続きには15,000ドル以上が必要だという。 費用がかかります。 その後、偽弁護士は孫に電話を渡すふりをし、孫のクローン音声で料金の支払いを手伝ってほしいと懇願し、彼らはそれをきちんと実行した。
彼らが詐欺にあったことに気づいたのは、その日遅くに孫から電話があって話があったときだった。 詐欺師は孫が投稿した YouTube 動画から自分の声を複製したのではないかと考えられているが、確信は難しい。
声を複製するAI技術を開発した企業に対し、こうした犯罪の責任を問う人もいる。 しかし、これが起こる前に、他の多くの人がこの極悪な詐欺によってお金を失うことは確実のようです。
クローン化された音声の例を聞いて、どれだけオリジナルに近づけられるかを確認するには、 このデジタル トレンドの記事をご覧ください.
編集者のおすすめ
- トップクラスの著者がAI企業に作品の使用料を要求
- 最高の AI ビデオ編集ツール
- イーロン・マスク氏の新しいAI企業は「宇宙を理解する」ことを目指す
- OpenAI、超インテリジェント AI の暴走を阻止するための新しいチームを構築
- OpenAI、初の国際拠点の場所を明らかに
ライフスタイルをアップグレードするDigital Trends は、読者が最新ニュース、楽しい製品レビュー、洞察力に富んだ社説、ユニークなスニーク ピークをすべて提供して、ペースの速いテクノロジーの世界を監視するのに役立ちます。