ลองนึกภาพภาพยนตร์ที่พลิกผันเกี่ยวกับอาชญากรตัวฉกาจที่ถูกขังอยู่ในสงครามแห่งปัญญากับนักสืบที่ยิ่งใหญ่ที่สุดในโลก
สารบัญ
- ปัญหาการปลอมแปลงอย่างล้ำลึก
- หลอกเครื่องตรวจจับ
- เกมแมวและหนูปลอม
อาชญากรพยายามใช้กลอุบายความมั่นใจอันยิ่งใหญ่ โดยใช้มืออันชาญฉลาดและความสามารถอันแปลกประหลาดในการปลอมตัวเป็นแทบทุกคนบนโลกนี้ เขาเก่งมากในสิ่งที่เขาทำจนสามารถทำให้ผู้คนเชื่อว่าพวกเขาได้เห็นสิ่งที่ไม่เคยเกิดขึ้นจริง
วิดีโอแนะนำ
แต่แล้วเราก็พบกับนักสืบ เธอเป็นคนเก่งและเฉียบขาดที่สามารถตรวจจับ "การบอกเล่า" ของขโมยได้ เธอรู้ว่าต้องมองหาอะไร และแม้แต่พฤติกรรมเล็กๆ น้อยๆ เช่น การเลิกคิ้วตรงนี้ สระลดลงตรงนั้น ก็เพียงพอที่จะแจ้งเตือนเธอเมื่อมีบางอย่างผิดปกติ เธอเป็นคนเดียวที่สามารถจับศัตรูของเราได้ และตอนนี้เธอก็ร้อนแรงตามรอยเขาอีกครั้ง
ที่เกี่ยวข้อง
- รางวัลเทคโนโลยีเพื่อการเปลี่ยนแปลงของ Digital Trends CES 2023
- Meta ต้องการเพิ่มพลังให้กับ Wikipedia ด้วยการอัปเกรด AI
- เราจะรู้ได้อย่างไรว่า AI มีความรู้สึกจริง ๆ แล้ว?
อย่างไรก็ตาม มีปัญหาอยู่อย่างหนึ่งคือ ขโมยของเรารู้เรื่องนี้ดี เธอ รู้ว่าจะต้องมองหาอะไร เป็นผลให้เขาเปลี่ยนเกมของเขาโดยที่ตัวเอกไม่รู้ตัว
ปัญหาการปลอมแปลงอย่างล้ำลึก
โดยพื้นฐานแล้ว นี่คือเรื่องราวของการตรวจจับแบบดีพเฟคและการตรวจจับแบบดีพเฟคจนถึงตอนนี้ Deepfakes ซึ่งเป็นสื่อสังเคราะห์รูปแบบหนึ่งที่ความคล้ายคลึงของผู้คนสามารถเปลี่ยนแปลงได้ทางดิจิทัลเช่น เผชิญหน้า รีเมคกำกับโดย A.I. นักวิจัยเป็นเหตุให้เกิดความกังวลนับตั้งแต่พวกเขาปรากฏตัวขึ้นในปี 2560 ในขณะที่ดีพเฟคหลายๆ ตัวดูสบายๆ (สลับกันออกไป) อาร์นี่จาก Sly Stallone ใน เทอร์มิเนเตอร์) สิ่งเหล่านี้ยังก่อให้เกิดภัยคุกคามอีกด้วย Deepfakes ถูกนำมาใช้เพื่อสร้างวิดีโอลามกอนาจารปลอมที่ดูเหมือนจริง และใช้ในการหลอกลวงทางการเมือง รวมถึงการฉ้อโกงทางการเงิน
เพื่อมิให้การหลอกลวงดังกล่าวกลายเป็นปัญหาที่ใหญ่กว่านี้ ใครบางคนจำเป็นต้องสามารถก้าวเข้ามาและพูดได้อย่างชัดเจนเมื่อมีการใช้ Deepfake และเมื่อไม่ได้ใช้
“เครื่องตรวจจับ Deepfake ทำงานโดยการค้นหารายละเอียดของ Deepfake ที่ไม่ถูกต้องนักโดยการค้นหารูปภาพที่ไม่ใช่แค่หุบเขาที่แปลกประหลาดเท่านั้น แต่ยังเป็นหลุมลึกที่แปลกประหลาดที่สุดอีกด้วย”
ใช้เวลาไม่นานก่อนที่เครื่องตรวจจับ Deepfake เครื่องแรกจะปรากฏขึ้น ภายในเดือนเมษายน 2018 ฉันได้กล่าวถึง หนึ่งในความพยายามก่อนหน้านี้ในการทำเช่นนี้ซึ่งสร้างโดยนักวิจัยจากมหาวิทยาลัยเทคนิคมิวนิกของเยอรมนี เช่นเดียวกับเทคโนโลยี Deepfake เอง มันใช้ A.I. — คราวนี้ผู้สร้างไม่ได้ใช้มันเพื่อสร้างของปลอม แต่เพื่อตรวจจับพวกมัน
เครื่องตรวจจับ Deepfake ทำงานโดยการค้นหารายละเอียดของ Deepfake ที่ไม่ใช่ ค่อนข้าง โดยการค้นหาภาพไม่เพียงแต่หุบเขาที่แปลกประหลาดเท่านั้น แต่ยังเป็นหลุมลึกที่เล็กที่สุดอีกด้วย พวกเขาครอบตัดข้อมูลใบหน้าจากรูปภาพแล้วส่งผ่านโครงข่ายประสาทเทียมเพื่อค้นหาความถูกต้องตามกฎหมาย รายละเอียดการแจกอาจรวมถึงสิ่งต่างๆ เช่น การกระพริบตาที่ทำซ้ำได้ไม่ดี
แต่ตอนนี้นักวิจัยจากมหาวิทยาลัยแคลิฟอร์เนีย ซานดิเอโก ค้นพบวิธีเอาชนะเครื่องตรวจจับปลอมโดยการแทรกสิ่งที่เรียกว่าตัวอย่างฝ่ายตรงข้ามลงในเฟรมวิดีโอ ตัวอย่างของฝ่ายตรงข้ามเป็นข้อผิดพลาดที่น่าทึ่งแต่ก็น่ากลัวใน A.I. เมทริกซ์ พวกเขาสามารถหลอกแม้แต่ระบบการจดจำที่ฉลาดที่สุดให้เข้ามาได้ เช่น คิดว่าเต่าเป็นปืนหรือเอสเปรสโซคือลูกเบสบอล พวกเขาทำเช่นนี้โดยการเพิ่มสัญญาณรบกวนลงในภาพอย่างละเอียด เพื่อทำให้โครงข่ายประสาทเทียมจัดหมวดหมู่ไม่ถูกต้อง
เหมือนเข้าใจผิดว่าปืนไรเฟิลเป็นสัตว์เลื้อยคลานที่มีกระสุน หรือวิดีโอปลอมของจริง
หลอกเครื่องตรวจจับ
“เมื่อเร็ว ๆ นี้ มีวิธีการมากมายในการสร้างวิดีโอ Deepfake ที่สมจริง” ปาฏิหาริย์นักศึกษาจบวิศวกรรมคอมพิวเตอร์ของ UC San Diego กล่าวกับ Digital Trends “เนื่องจากวิดีโอที่ถูกดัดแปลงเหล่านี้สามารถใช้เพื่อวัตถุประสงค์ที่เป็นอันตรายได้ จึงมีความพยายามอย่างมากในการพัฒนาตัวตรวจจับที่สามารถตรวจจับวิดีโอ Deepfake ได้อย่างน่าเชื่อถือ ตัวอย่างเช่น, เฟสบุ๊ค เมื่อเร็วๆ นี้ได้เปิดตัว Deepfake Detection Challenge เพื่อเร่งการวิจัยเกี่ยวกับการพัฒนาเครื่องตรวจจับ Deepfake [แต่] แม้ว่าวิธีการตรวจจับเหล่านี้สามารถบรรลุความแม่นยำมากกว่า 90% ในชุดข้อมูลวิดีโอปลอมและวิดีโอจริง งานของเราแสดงให้เห็นว่าผู้โจมตีสามารถหลบเลี่ยงได้อย่างง่ายดาย ผู้โจมตีสามารถแทรกสัญญาณรบกวนที่สร้างขึ้นมาอย่างระมัดระวัง ซึ่งค่อนข้างมองไม่เห็นด้วยตามนุษย์ ลงในแต่ละเฟรมของวิดีโอ เพื่อให้เครื่องตรวจจับเหยื่อจัดประเภทผิด”
ผู้โจมตีสามารถสร้างวิดีโอเหล่านี้ได้ แม้ว่าพวกเขาจะไม่มีความรู้เฉพาะเกี่ยวกับสถาปัตยกรรมและพารามิเตอร์ของเครื่องตรวจจับก็ตาม การโจมตีเหล่านี้ยังคงใช้งานได้หลังจากวิดีโอถูกบีบอัด เช่นเดียวกับที่จะเกิดขึ้นหากแชร์ทางออนไลน์บนแพลตฟอร์มเช่น YouTube
เมื่อทดสอบ วิธีการนี้สามารถหลอกระบบการตรวจจับได้มากกว่า 99% เมื่อได้รับอนุญาตให้เข้าถึงโมเดลเครื่องตรวจจับ อย่างไรก็ตาม แม้จะอยู่ในระดับความสำเร็จต่ำสุด — สำหรับวิดีโอบีบอัดซึ่งไม่มีข้อมูลเกี่ยวกับรุ่นของเครื่องตรวจจับ — แต่ก็ยังเอาชนะรุ่นเหล่านั้นได้ 78.33% นั่นไม่ใช่ข่าวดี
นักวิจัยปฏิเสธที่จะเผยแพร่โค้ดของตนบนพื้นฐานที่ว่ามันอาจถูกนำไปใช้ในทางที่ผิด Neekhara กล่าว “วิดีโอที่เป็นปฏิปักษ์ที่สร้างขึ้นโดยใช้โค้ดของเราสามารถเลี่ยงเครื่องมือตรวจจับ Deepfake อื่น ๆ ที่มองไม่เห็นซึ่งถูกใช้ในการผลิตโดยโซเชียลมีเดีย [แพลตฟอร์ม]” เขาอธิบาย “เรากำลังร่วมมือกับทีมที่ทำงานเพื่อสร้างระบบตรวจจับ Deepfake เหล่านี้ และใช้การวิจัยของเราเพื่อสร้างระบบการตรวจจับที่แข็งแกร่งยิ่งขึ้น”
เกมแมวและหนูปลอม
แน่นอนว่านี่ไม่ใช่จุดสิ้นสุดของเรื่องราว ถ้าจะกลับไปสู่การเปรียบเทียบภาพยนตร์ของเรา ภาพยนตร์เรื่องนี้จะใช้เวลาประมาณ 20 นาทีเท่านั้น เรายังไปไม่ถึงจุดเกิดเหตุที่นักสืบรู้ตัวว่าหัวขโมยคิดว่าเขาหลอกเธอ หรืออีกนัยหนึ่งที่ขโมยรู้ตัวว่านักสืบรู้ว่าเขารู้ว่าเธอรู้ หรือ.. คุณได้รับภาพ
เกมแมวจับหนูสำหรับการตรวจจับ Deepfake ซึ่งมีแนวโน้มว่าจะดำเนินต่อไปเรื่อยๆ นั้นเป็นที่รู้จักกันดีสำหรับทุกคนที่เคยทำงานด้านความปลอดภัยทางไซเบอร์ แฮกเกอร์ที่เป็นอันตรายจะพบช่องโหว่ซึ่งต่อมาถูกบล็อกโดยนักพัฒนา ก่อนที่แฮกเกอร์จะพบช่องโหว่ในเวอร์ชันที่แก้ไขแล้ว ซึ่งต่อมาจะถูกปรับแต่งโดยผู้พัฒนาอีกครั้ง ดำเนินต่อไปอย่างไม่สิ้นสุด
“ใช่ ระบบสร้างและตรวจจับ Deepfake ติดตามไวรัสและไวรัสอย่างใกล้ชิด” เชห์ซีน ฮุสเซนปริญญาเอกวิศวกรรมคอมพิวเตอร์ UC San Diego นักเรียนบอกกับ Digital Trends “ในปัจจุบัน เครื่องตรวจจับ Deepfake ได้รับการฝึกฝนเกี่ยวกับชุดข้อมูลของวิดีโอจริงและวิดีโอปลอมที่สร้างขึ้นโดยใช้เทคนิคการสังเคราะห์ Deepfake ที่มีอยู่ ไม่มีการรับประกันว่าเครื่องตรวจจับดังกล่าวจะเข้าใจผิดได้กับระบบการสร้าง Deepfake ในอนาคต … เพื่อก้าวไปข้างหน้า ในการแข่งขันด้านอาวุธ วิธีการตรวจจับจำเป็นต้องได้รับการอัปเดตและฝึกอบรมเทคนิคการสังเคราะห์ Deepfake ที่กำลังจะมีขึ้นเป็นประจำ [พวกเขา] จะต้องแข็งแกร่งต่อตัวอย่างฝ่ายตรงข้ามด้วยการรวมวิดีโอของฝ่ายตรงข้ามในระหว่างการฝึกอบรม”
ก กระดาษอธิบายงานนี้ในหัวข้อ “Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples” ได้ถูกนำเสนอในการประชุมเสมือนจริง WACV 2021 เมื่อเร็วๆ นี้
คำแนะนำของบรรณาธิการ
- AI เปลี่ยน Breaking Bad ให้เป็นอนิเมะ — และมันน่ากลัวมาก
- ทำไม AI ถึงไม่มีวันครองโลก
- ภาพลวงตาสามารถช่วยให้เราสร้าง AI รุ่นต่อไปได้
- สัมผัสสุดท้าย: วิธีที่นักวิทยาศาสตร์ให้ประสาทสัมผัสสัมผัสเหมือนมนุษย์กับหุ่นยนต์
- อะนาล็อกเอไอ? ฟังดูบ้าบอ แต่อาจจะเป็นอนาคตก็ได้
อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร