ไม่ต้องสงสัยเลยว่าคุณเคยได้ยินเรื่องการหลอกลวงที่ผู้กระทำผิดโทรหาผู้สูงอายุและแกล้งทำเป็นหลานหรือญาติสนิทคนอื่น ๆ กิจวัตรปกติคือการแสดงตนในสภาวะทุกข์ใจ แสร้งทำเป็นว่าพวกเขาตกอยู่ในสถานการณ์ที่ลำบาก และขอให้โอนเงินด่วนเพื่อแก้ไขสถานการณ์ แม้ว่าปู่ย่าตายายหลายคนจะรู้ว่าเสียงนั้นไม่ใช่เสียงของหลานและวางสาย แต่คนอื่นๆ ก็ไม่เป็นเช่นนั้น แจ้งให้ทราบและเพียงกระตือรือร้นที่จะช่วยเหลือญาติที่กังวลของพวกเขาเท่านั้นจึงส่งเงินไปที่ผู้โทร บัญชี.
ก วอชิงตันโพสต์ รายงานเมื่อวันอาทิตย์เผยให้เห็นว่านักต้มตุ๋นบางคนได้ยกระดับการหลอกลวงขึ้นอีกระดับด้วยการใช้ AI เทคโนโลยีที่สามารถโคลนเสียงได้ ทำให้มีโอกาสมากขึ้นที่เป้าหมายจะตกหลุมพราง เล่ห์เหลี่ยม
ในการเปิดตัวกลโกงเวอร์ชันที่ซับซ้อนกว่านี้ อาชญากรต้องการ "ตัวอย่างเสียงที่มีเพียงไม่กี่ประโยค" ตามโพสต์ จากนั้นตัวอย่างจะถูกเรียกใช้ผ่านหนึ่งในเครื่องมือออนไลน์ที่มีอยู่ทั่วไป ซึ่งใช้เสียงต้นฉบับเพื่อสร้างแบบจำลองที่สามารถสั่งให้พูดสิ่งที่คุณต้องการได้ง่ายๆ เพียงพิมพ์วลี
ที่เกี่ยวข้อง
- GPT-4: วิธีใช้แชทบอท AI ที่ทำให้ ChatGPT อับอาย
- OpenAI ผู้ผลิต ChatGPT เผชิญกับการสอบสวน FTC เกี่ยวกับกฎหมายคุ้มครองผู้บริโภค
- นักวิทยาศาสตร์กล่าวว่าความก้าวหน้าของ AI อาจมาจากสมองของผึ้ง
ข้อมูลจากคณะกรรมาธิการการค้าของรัฐบาลกลางชี้ให้เห็นว่าในปี 2022 เพียงปีเดียว มีรายงานสิ่งที่เรียกว่ากลโกงหลอกลวงผู้แอบอ้างมากกว่า 36,000 ฉบับ โดยรายงานเหล่านี้มากกว่า 5,000 ฉบับเกิดขึ้นทางโทรศัพท์ รายงานผลขาดทุนสูงถึง 11 ล้านดอลลาร์
วิดีโอแนะนำ
ความกลัวก็คือเมื่อเครื่องมือ AI มีประสิทธิภาพมากขึ้นและเข้าถึงได้อย่างกว้างขวางมากขึ้น ผู้คนจำนวนมากจะตกหลุมพรางกลโกงในอีกไม่กี่เดือนและหลายปีข้างหน้า
อย่างไรก็ตาม การหลอกลวงยังคงต้องมีการวางแผน โดยผู้กระทำผิดจะต้องค้นหาตัวอย่างเสียง รวมถึงหมายเลขโทรศัพท์ของเหยื่อที่เกี่ยวข้อง ตัวอย่างเช่น ตัวอย่างเสียงอาจพบได้ทางออนไลน์ผ่านเว็บไซต์ยอดนิยมอย่าง TikTok และ YouTube ในขณะที่หมายเลขโทรศัพท์ก็อาจพบได้บนเว็บเช่นกัน
การหลอกลวงอาจมีหลายรูปแบบเช่นกัน เดอะโพสต์ยกตัวอย่างกรณีมีคนแอบอ้างเป็นทนายติดต่อกับคู่สามีภรรยาสูงอายุคนหนึ่ง พวกเขาหลานชายของพวกเขาถูกควบคุมตัวในข้อหาก่ออาชญากรรม และพวกเขาต้องการเงินมากกว่า 15,000 ดอลลาร์สำหรับการดำเนินการทางกฎหมาย ค่าใช้จ่าย ทนายความปลอมจึงแสร้งทำเป็นยื่นโทรศัพท์ให้หลานชาย ซึ่งมีเสียงโคลนร้องขอความช่วยเหลือในการชำระค่าธรรมเนียม ซึ่งพวกเขาก็ทำอย่างถูกต้อง
พวกเขาเพิ่งรู้ว่าพวกเขาถูกหลอกลวงเมื่อหลานชายโทรหาพวกเขาในวันนั้นเพื่อพูดคุย คาดว่านักต้มตุ๋นอาจลอกเสียงของเขาจากวิดีโอ YouTube ที่หลานชายโพสต์ แม้ว่าจะยากที่จะแน่ใจก็ตาม
บางคนเรียกร้องให้บริษัทที่สร้างเทคโนโลยี AI ที่เลียนแบบเสียงต้องรับผิดชอบต่ออาชญากรรมดังกล่าว แต่ก่อนที่สิ่งนี้จะเกิดขึ้น ดูเหมือนว่าคนอื่นๆ อีกหลายคนจะต้องสูญเสียเงินจากการหลอกลวงอันชั่วร้ายนี้
หากต้องการฟังตัวอย่างเสียงโคลนเพื่อดูว่าสามารถเข้าใกล้เสียงต้นฉบับได้แค่ไหน ลองอ่านบทความ Digital Trends นี้.
คำแนะนำของบรรณาธิการ
- นักเขียนชั้นนำเรียกร้องเงินจากบริษัท AI เพื่อใช้งานของพวกเขา
- เครื่องมือตัดต่อวิดีโอ AI ที่ดีที่สุด
- บริษัท AI แห่งใหม่ของ Elon Musk ตั้งเป้าที่จะ 'เข้าใจจักรวาล'
- OpenAI สร้างทีมใหม่เพื่อหยุดยั้ง AI อัจฉริยะที่โกง
- OpenAI เผยที่ตั้งด่านหน้าระดับนานาชาติแห่งแรก
อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร