AI는 장기간 지속되는 사기를 더욱 효과적으로 만들고 있습니다.

가해자가 노인에게 전화를 걸어 손주나 가까운 친척인 것처럼 가장하는 사기에 대해 들어보셨을 것입니다. 괴로운 상태에서 행동하고, 곤란한 상황인 척하고, 상황 해결을 위해 긴급 현금 이체를 요청하는 것이 일반적인 일상이다. 많은 조부모님은 그 목소리가 손자의 목소리가 아니라는 것을 깨닫고 전화를 끊으시지만, 다른 조부모님은 그렇지 않습니다. 그 사실을 알아차리고 불안한 친척을 돕고 싶어 발신자에게 돈을 보내십시오. 계정.

워싱턴 포스트 일요일 보고서에 따르면 일부 사기꾼은 AI를 배포하여 사기를 완전히 새로운 수준으로 끌어 올렸습니다. 목소리를 복제할 수 있는 기술을 사용하면 대상이 책략.

휴대폰을 들고 있는 노인.
오노 코스키/Pexels

Post에 따르면 보다 정교한 버전의 사기를 실행하려면 범죄자에게 "단지 몇 문장으로 구성된 오디오 샘플"이 필요합니다. 그런 다음 원본 음성을 사용하여 문구를 입력하기만 하면 원하는 것을 말하도록 지시할 수 있는 복제본을 생성하는 널리 사용되는 많은 온라인 도구 중 하나를 통해 샘플이 실행됩니다.

관련된

  • GPT-4: ChatGPT를 부끄럽게 만드는 AI 챗봇을 사용하는 방법
  • ChatGPT 제조사 OpenAI, 소비자 보호법 위반으로 FTC 조사에 직면
  • AI 혁신은 꿀벌의 뇌를 통해 이루어질 수 있다고 과학자들은 말합니다.

연방거래위원회(Federal Trade Commission)의 데이터에 따르면 2022년에만 이른바 사기 사기 신고가 36,000건 이상 접수되었으며, 이 중 5,000건 이상이 전화를 통해 발생했습니다. 보고된 손실액은 1,100만 달러에 달했습니다.

추천 동영상

AI 도구가 더욱 효과적이고 널리 사용 가능해짐에 따라 앞으로 몇 달, 몇 년 안에 더 많은 사람들이 사기에 빠질 것이라는 두려움이 있습니다.

그러나 사기에는 여전히 약간의 계획이 필요합니다. 단호한 가해자는 음성 오디오 샘플과 관련 피해자의 전화번호를 찾아야 합니다. 예를 들어 오디오 샘플은 TikTok 및 YouTube와 같은 인기 사이트를 통해 온라인으로 찾을 수 있으며 전화번호는 웹에서도 찾을 수 있습니다.

사기에는 다양한 형태가 있을 수 있습니다. The Post는 변호사인 것처럼 가장한 누군가가 노부부에게 연락하여 다음과 같이 말한 사례를 인용합니다. 그들의 손자는 범죄 혐의로 구금되어 있었고 법적 소송을 위해 $15,000 이상이 필요했습니다. 소송 비용. 가짜 변호사는 손자에게 전화기를 건네주는 척했고, 복제된 목소리는 수수료 지불을 위해 도움을 간청했고 그들은 정당하게 그렇게 했습니다.

그들은 그날 늦게 손자가 채팅을 위해 전화를 걸었을 때 사기를 당했다는 사실을 깨달았습니다. 사기꾼은 손자가 올린 유튜브 영상에서 자신의 목소리를 복제했을 수도 있지만 확실하지는 않다.

목소리를 복제하는 AI 기술을 만드는 기업에 이런 범죄에 대한 책임을 물을 것을 요구하는 목소리도 있다. 그러나 이런 일이 발생하기 전에 많은 사람들이 이 사악한 사기로 인해 돈을 잃을 것이 확실해 보입니다.

복제된 음성의 예를 듣고 원본에 얼마나 가까워질 수 있는지 확인하려면, 이 디지털 트렌드 기사를 확인하세요..

편집자의 추천

  • 최고 저자는 AI 회사에 자신의 작품 사용에 대한 대가를 요구합니다.
  • 최고의 AI 비디오 편집 도구
  • 엘론 머스크의 새로운 AI 회사는 '우주 이해'를 목표로 한다
  • OpenAI는 초지능 AI의 사기 행위를 막기 위해 새로운 팀을 구성합니다.
  • OpenAI, 최초의 국제 전초기지 위치 공개

당신의 라이프스타일을 업그레이드하세요Digital Trends는 독자들이 모든 최신 뉴스, 재미있는 제품 리뷰, 통찰력 있는 사설 및 독특한 미리보기를 통해 빠르게 변화하는 기술 세계를 계속해서 살펴볼 수 있도록 도와줍니다.