AI กำลังทำให้การหลอกลวงระยะยาวมีประสิทธิภาพมากยิ่งขึ้น

ไม่ต้องสงสัยเลยว่าคุณเคยได้ยินเรื่องการหลอกลวงที่ผู้กระทำผิดโทรหาผู้สูงอายุและแกล้งทำเป็นหลานหรือญาติสนิทคนอื่น ๆ กิจวัตรปกติคือการแสดงตนในสภาวะทุกข์ใจ แสร้งทำเป็นว่าพวกเขาตกอยู่ในสถานการณ์ที่ลำบาก และขอให้โอนเงินด่วนเพื่อแก้ไขสถานการณ์ แม้ว่าปู่ย่าตายายหลายคนจะรู้ว่าเสียงนั้นไม่ใช่เสียงของหลานและวางสาย แต่คนอื่นๆ ก็ไม่เป็นเช่นนั้น แจ้งให้ทราบและเพียงกระตือรือร้นที่จะช่วยเหลือญาติที่กังวลของพวกเขาเท่านั้นจึงส่งเงินไปที่ผู้โทร บัญชี.

วอชิงตันโพสต์ รายงานเมื่อวันอาทิตย์เผยให้เห็นว่านักต้มตุ๋นบางคนได้ยกระดับการหลอกลวงขึ้นอีกระดับด้วยการใช้ AI เทคโนโลยีที่สามารถโคลนเสียงได้ ทำให้มีโอกาสมากขึ้นที่เป้าหมายจะตกหลุมพราง เล่ห์เหลี่ยม

ผู้สูงอายุถือโทรศัพท์
โอโนะ โคซูกิ/Pexels

ในการเปิดตัวกลโกงเวอร์ชันที่ซับซ้อนกว่านี้ อาชญากรต้องการ "ตัวอย่างเสียงที่มีเพียงไม่กี่ประโยค" ตามโพสต์ จากนั้นตัวอย่างจะถูกเรียกใช้ผ่านหนึ่งในเครื่องมือออนไลน์ที่มีอยู่ทั่วไป ซึ่งใช้เสียงต้นฉบับเพื่อสร้างแบบจำลองที่สามารถสั่งให้พูดสิ่งที่คุณต้องการได้ง่ายๆ เพียงพิมพ์วลี

ที่เกี่ยวข้อง

  • GPT-4: วิธีใช้แชทบอท AI ที่ทำให้ ChatGPT อับอาย
  • OpenAI ผู้ผลิต ChatGPT เผชิญกับการสอบสวน FTC เกี่ยวกับกฎหมายคุ้มครองผู้บริโภค
  • นักวิทยาศาสตร์กล่าวว่าความก้าวหน้าของ AI อาจมาจากสมองของผึ้ง

ข้อมูลจากคณะกรรมาธิการการค้าของรัฐบาลกลางชี้ให้เห็นว่าในปี 2022 เพียงปีเดียว มีรายงานสิ่งที่เรียกว่ากลโกงหลอกลวงผู้แอบอ้างมากกว่า 36,000 ฉบับ โดยรายงานเหล่านี้มากกว่า 5,000 ฉบับเกิดขึ้นทางโทรศัพท์ รายงานผลขาดทุนสูงถึง 11 ล้านดอลลาร์

วิดีโอแนะนำ

ความกลัวก็คือเมื่อเครื่องมือ AI มีประสิทธิภาพมากขึ้นและเข้าถึงได้อย่างกว้างขวางมากขึ้น ผู้คนจำนวนมากจะตกหลุมพรางกลโกงในอีกไม่กี่เดือนและหลายปีข้างหน้า

อย่างไรก็ตาม การหลอกลวงยังคงต้องมีการวางแผน โดยผู้กระทำผิดจะต้องค้นหาตัวอย่างเสียง รวมถึงหมายเลขโทรศัพท์ของเหยื่อที่เกี่ยวข้อง ตัวอย่างเช่น ตัวอย่างเสียงอาจพบได้ทางออนไลน์ผ่านเว็บไซต์ยอดนิยมอย่าง TikTok และ YouTube ในขณะที่หมายเลขโทรศัพท์ก็อาจพบได้บนเว็บเช่นกัน

การหลอกลวงอาจมีหลายรูปแบบเช่นกัน เดอะโพสต์ยกตัวอย่างกรณีมีคนแอบอ้างเป็นทนายติดต่อกับคู่สามีภรรยาสูงอายุคนหนึ่ง พวกเขาหลานชายของพวกเขาถูกควบคุมตัวในข้อหาก่ออาชญากรรม และพวกเขาต้องการเงินมากกว่า 15,000 ดอลลาร์สำหรับการดำเนินการทางกฎหมาย ค่าใช้จ่าย ทนายความปลอมจึงแสร้งทำเป็นยื่นโทรศัพท์ให้หลานชาย ซึ่งมีเสียงโคลนร้องขอความช่วยเหลือในการชำระค่าธรรมเนียม ซึ่งพวกเขาก็ทำอย่างถูกต้อง

พวกเขาเพิ่งรู้ว่าพวกเขาถูกหลอกลวงเมื่อหลานชายโทรหาพวกเขาในวันนั้นเพื่อพูดคุย คาดว่านักต้มตุ๋นอาจลอกเสียงของเขาจากวิดีโอ YouTube ที่หลานชายโพสต์ แม้ว่าจะยากที่จะแน่ใจก็ตาม

บางคนเรียกร้องให้บริษัทที่สร้างเทคโนโลยี AI ที่เลียนแบบเสียงต้องรับผิดชอบต่ออาชญากรรมดังกล่าว แต่ก่อนที่สิ่งนี้จะเกิดขึ้น ดูเหมือนว่าคนอื่นๆ อีกหลายคนจะต้องสูญเสียเงินจากการหลอกลวงอันชั่วร้ายนี้

หากต้องการฟังตัวอย่างเสียงโคลนเพื่อดูว่าสามารถเข้าใกล้เสียงต้นฉบับได้แค่ไหน ลองอ่านบทความ Digital Trends นี้.

คำแนะนำของบรรณาธิการ

  • นักเขียนชั้นนำเรียกร้องเงินจากบริษัท AI เพื่อใช้งานของพวกเขา
  • เครื่องมือตัดต่อวิดีโอ AI ที่ดีที่สุด
  • บริษัท AI แห่งใหม่ของ Elon Musk ตั้งเป้าที่จะ 'เข้าใจจักรวาล'
  • OpenAI สร้างทีมใหม่เพื่อหยุดยั้ง AI อัจฉริยะที่โกง
  • OpenAI เผยที่ตั้งด่านหน้าระดับนานาชาติแห่งแรก

อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร

หมวดหมู่

ล่าสุด

การรั่วไหลของ Windows 11: ดูการออกแบบ Radical Design เป็นครั้งแรก

การรั่วไหลของ Windows 11: ดูการออกแบบ Radical Design เป็นครั้งแรก

ใหม่ วินโดวส์ 11 รั่วไหล อาจทำให้เสียความประหลา...

ผู้เล่น Hitman 3 ไม่สามารถดำเนินการต่อไปได้ในวันเปิดตัว

ผู้เล่น Hitman 3 ไม่สามารถดำเนินการต่อไปได้ในวันเปิดตัว

นักฆ่า 3 วางจำหน่ายแล้ววันนี้ แต่ผู้เล่นกำลังปร...