AI membuat penipuan jangka panjang menjadi lebih efektif

Anda pasti pernah mendengar penipuan yang pelakunya menelepon orang lanjut usia dan berpura-pura menjadi cucu atau kerabat dekat lainnya. Rutinitas yang biasa dilakukan adalah bertindak dalam keadaan tertekan, berpura-pura berada dalam situasi sulit, dan meminta bantuan tunai mendesak untuk menyelesaikan situasi tersebut. Meskipun banyak kakek-nenek yang menyadari bahwa suara tersebut bukan suara cucu mereka dan menutup telepon, sebagian lainnya tidak memperhatikan dan, karena sangat ingin membantu kerabat mereka yang cemas, teruskan mengirim uang ke penelepon akun.

A Washington Post Laporan pada hari Minggu mengungkapkan bahwa beberapa penipu telah meningkatkan penipuannya dengan menerapkan AI teknologi yang mampu mengkloning suara, sehingga kemungkinan besar targetnya akan jatuh ke tangan mereka tipu.

Seorang lansia memegang telepon.
Ono Kosuki/Pexels

Untuk meluncurkan versi penipuan yang lebih canggih ini, penjahat memerlukan “sampel audio hanya dengan beberapa kalimat,” menurut Post. Sampel tersebut kemudian dijalankan melalui salah satu dari banyak alat online yang tersedia secara luas yang menggunakan suara asli untuk membuat replika yang dapat diperintahkan untuk mengatakan apa pun yang Anda inginkan hanya dengan mengetikkan frasa.

Terkait

  • GPT-4: cara menggunakan chatbot AI yang mempermalukan ChatGPT
  • Pembuat ChatGPT, OpenAI, menghadapi penyelidikan FTC atas undang-undang perlindungan konsumen
  • Terobosan AI bisa datang melalui otak lebah, kata para ilmuwan

Data dari Komisi Perdagangan Federal menunjukkan bahwa pada tahun 2022 saja, terdapat lebih dari 36.000 laporan penipuan palsu, dan lebih dari 5.000 di antaranya terjadi melalui telepon. Kerugian yang dilaporkan mencapai $11 juta.

Video yang Direkomendasikan

Kekhawatirannya adalah ketika alat AI menjadi lebih efektif dan tersedia secara luas, semakin banyak orang yang akan tertipu dalam beberapa bulan dan tahun mendatang.

Namun, penipuan ini masih memerlukan beberapa perencanaan, karena pelaku yang bertekad perlu menemukan sampel audio suara, serta nomor telepon korban terkait. Contoh audio, misalnya, dapat ditemukan secara online melalui situs populer seperti TikTok dan YouTube, sementara nomor telepon juga dapat ditemukan di web.

Penipuan juga bisa terjadi dalam berbagai bentuk. The Post mengutip contoh di mana seseorang yang berpura-pura menjadi pengacara menghubungi pasangan lansia dan menceritakannya mereka cucu mereka ditahan karena dugaan kejahatan dan mereka membutuhkan lebih dari $15.000 untuk proses hukum biaya. Pengacara palsu itu kemudian berpura-pura menyerahkan telepon kepada cucu mereka, yang suaranya dikloning memohon bantuan untuk membayar biaya, dan mereka pun melakukannya.

Mereka baru menyadari bahwa mereka telah ditipu ketika cucu mereka menelepon mereka pada hari itu juga untuk mengobrol. Penipu diperkirakan telah mengkloning suaranya dari video YouTube yang diposting oleh cucunya, meskipun sulit untuk memastikannya.

Beberapa pihak menyerukan agar perusahaan yang membuat teknologi AI yang mengkloning suara harus bertanggung jawab atas kejahatan tersebut. Namun sebelum hal ini terjadi, tampaknya banyak orang lain yang akan kehilangan uang karena penipuan keji ini.

Untuk mendengarkan contoh suara kloning untuk melihat seberapa mirip suara aslinya, lihat artikel Tren Digital ini.

Rekomendasi Editor

  • Penulis terkenal menuntut pembayaran dari perusahaan AI untuk menggunakan karya mereka
  • Alat pengeditan video AI terbaik
  • Perusahaan AI baru Elon Musk bertujuan untuk ‘memahami alam semesta’
  • OpenAI membangun tim baru untuk menghentikan AI super cerdas menjadi nakal
  • OpenAI mengungkapkan lokasi pos internasional pertamanya

Tingkatkan gaya hidup AndaTren Digital membantu pembaca mengawasi dunia teknologi yang bergerak cepat dengan semua berita terbaru, ulasan produk yang menyenangkan, editorial yang berwawasan luas, dan cuplikan unik.