ภายในสงครามระหว่าง Deepfakes และ Deepfake Detectors

ลองนึกภาพภาพยนตร์ที่พลิกผันเกี่ยวกับอาชญากรตัวฉกาจที่ถูกขังอยู่ในสงครามแห่งปัญญากับนักสืบที่ยิ่งใหญ่ที่สุดในโลก

สารบัญ

  • ปัญหาการปลอมแปลงอย่างล้ำลึก
  • หลอกเครื่องตรวจจับ
  • เกมแมวและหนูปลอม

อาชญากรพยายามใช้กลอุบายความมั่นใจอันยิ่งใหญ่ โดยใช้มืออันชาญฉลาดและความสามารถอันแปลกประหลาดในการปลอมตัวเป็นแทบทุกคนบนโลกนี้ เขาเก่งมากในสิ่งที่เขาทำจนสามารถทำให้ผู้คนเชื่อว่าพวกเขาได้เห็นสิ่งที่ไม่เคยเกิดขึ้นจริง

วิดีโอแนะนำ

แต่แล้วเราก็พบกับนักสืบ เธอเป็นคนเก่งและเฉียบขาดที่สามารถตรวจจับ "การบอกเล่า" ของขโมยได้ เธอรู้ว่าต้องมองหาอะไร และแม้แต่พฤติกรรมเล็กๆ น้อยๆ เช่น การเลิกคิ้วตรงนี้ สระลดลงตรงนั้น ก็เพียงพอที่จะแจ้งเตือนเธอเมื่อมีบางอย่างผิดปกติ เธอเป็นคนเดียวที่สามารถจับศัตรูของเราได้ และตอนนี้เธอก็ร้อนแรงตามรอยเขาอีกครั้ง

ที่เกี่ยวข้อง

  • รางวัลเทคโนโลยีเพื่อการเปลี่ยนแปลงของ Digital Trends CES 2023
  • Meta ต้องการเพิ่มพลังให้กับ Wikipedia ด้วยการอัปเกรด AI
  • เราจะรู้ได้อย่างไรว่า AI มีความรู้สึกจริง ๆ แล้ว?

อย่างไรก็ตาม มีปัญหาอยู่อย่างหนึ่งคือ ขโมยของเรารู้เรื่องนี้ดี เธอ รู้ว่าจะต้องมองหาอะไร เป็นผลให้เขาเปลี่ยนเกมของเขาโดยที่ตัวเอกไม่รู้ตัว

ปัญหาการปลอมแปลงอย่างล้ำลึก

โดยพื้นฐานแล้ว นี่คือเรื่องราวของการตรวจจับแบบดีพเฟคและการตรวจจับแบบดีพเฟคจนถึงตอนนี้ Deepfakes ซึ่งเป็นสื่อสังเคราะห์รูปแบบหนึ่งที่ความคล้ายคลึงของผู้คนสามารถเปลี่ยนแปลงได้ทางดิจิทัลเช่น เผชิญหน้า รีเมคกำกับโดย A.I. นักวิจัยเป็นเหตุให้เกิดความกังวลนับตั้งแต่พวกเขาปรากฏตัวขึ้นในปี 2560 ในขณะที่ดีพเฟคหลายๆ ตัวดูสบายๆ (สลับกันออกไป) อาร์นี่จาก Sly Stallone ใน เทอร์มิเนเตอร์) สิ่งเหล่านี้ยังก่อให้เกิดภัยคุกคามอีกด้วย Deepfakes ถูกนำมาใช้เพื่อสร้างวิดีโอลามกอนาจารปลอมที่ดูเหมือนจริง และใช้ในการหลอกลวงทางการเมือง รวมถึงการฉ้อโกงทางการเงิน

เพื่อมิให้การหลอกลวงดังกล่าวกลายเป็นปัญหาที่ใหญ่กว่านี้ ใครบางคนจำเป็นต้องสามารถก้าวเข้ามาและพูดได้อย่างชัดเจนเมื่อมีการใช้ Deepfake และเมื่อไม่ได้ใช้

“เครื่องตรวจจับ Deepfake ทำงานโดยการค้นหารายละเอียดของ Deepfake ที่ไม่ถูกต้องนักโดยการค้นหารูปภาพที่ไม่ใช่แค่หุบเขาที่แปลกประหลาดเท่านั้น แต่ยังเป็นหลุมลึกที่แปลกประหลาดที่สุดอีกด้วย”

ใช้เวลาไม่นานก่อนที่เครื่องตรวจจับ Deepfake เครื่องแรกจะปรากฏขึ้น ภายในเดือนเมษายน 2018 ฉันได้กล่าวถึง หนึ่งในความพยายามก่อนหน้านี้ในการทำเช่นนี้ซึ่งสร้างโดยนักวิจัยจากมหาวิทยาลัยเทคนิคมิวนิกของเยอรมนี เช่นเดียวกับเทคโนโลยี Deepfake เอง มันใช้ A.I. — คราวนี้ผู้สร้างไม่ได้ใช้มันเพื่อสร้างของปลอม แต่เพื่อตรวจจับพวกมัน

เครื่องตรวจจับ Deepfake ทำงานโดยการค้นหารายละเอียดของ Deepfake ที่ไม่ใช่ ค่อนข้าง โดยการค้นหาภาพไม่เพียงแต่หุบเขาที่แปลกประหลาดเท่านั้น แต่ยังเป็นหลุมลึกที่เล็กที่สุดอีกด้วย พวกเขาครอบตัดข้อมูลใบหน้าจากรูปภาพแล้วส่งผ่านโครงข่ายประสาทเทียมเพื่อค้นหาความถูกต้องตามกฎหมาย รายละเอียดการแจกอาจรวมถึงสิ่งต่างๆ เช่น การกระพริบตาที่ทำซ้ำได้ไม่ดี

แต่ตอนนี้นักวิจัยจากมหาวิทยาลัยแคลิฟอร์เนีย ซานดิเอโก ค้นพบวิธีเอาชนะเครื่องตรวจจับปลอมโดยการแทรกสิ่งที่เรียกว่าตัวอย่างฝ่ายตรงข้ามลงในเฟรมวิดีโอ ตัวอย่างของฝ่ายตรงข้ามเป็นข้อผิดพลาดที่น่าทึ่งแต่ก็น่ากลัวใน A.I. เมทริกซ์ พวกเขาสามารถหลอกแม้แต่ระบบการจดจำที่ฉลาดที่สุดให้เข้ามาได้ เช่น คิดว่าเต่าเป็นปืนหรือเอสเปรสโซคือลูกเบสบอล พวกเขาทำเช่นนี้โดยการเพิ่มสัญญาณรบกวนลงในภาพอย่างละเอียด เพื่อทำให้โครงข่ายประสาทเทียมจัดหมวดหมู่ไม่ถูกต้อง

เหมือนเข้าใจผิดว่าปืนไรเฟิลเป็นสัตว์เลื้อยคลานที่มีกระสุน หรือวิดีโอปลอมของจริง

หลอกเครื่องตรวจจับ

“เมื่อเร็ว ๆ นี้ มีวิธีการมากมายในการสร้างวิดีโอ Deepfake ที่สมจริง” ปาฏิหาริย์นักศึกษาจบวิศวกรรมคอมพิวเตอร์ของ UC San Diego กล่าวกับ Digital Trends “เนื่องจากวิดีโอที่ถูกดัดแปลงเหล่านี้สามารถใช้เพื่อวัตถุประสงค์ที่เป็นอันตรายได้ จึงมีความพยายามอย่างมากในการพัฒนาตัวตรวจจับที่สามารถตรวจจับวิดีโอ Deepfake ได้อย่างน่าเชื่อถือ ตัวอย่างเช่น, เฟสบุ๊ค เมื่อเร็วๆ นี้ได้เปิดตัว Deepfake Detection Challenge เพื่อเร่งการวิจัยเกี่ยวกับการพัฒนาเครื่องตรวจจับ Deepfake [แต่] แม้ว่าวิธีการตรวจจับเหล่านี้สามารถบรรลุความแม่นยำมากกว่า 90% ในชุดข้อมูลวิดีโอปลอมและวิดีโอจริง งานของเราแสดงให้เห็นว่าผู้โจมตีสามารถหลบเลี่ยงได้อย่างง่ายดาย ผู้โจมตีสามารถแทรกสัญญาณรบกวนที่สร้างขึ้นมาอย่างระมัดระวัง ซึ่งค่อนข้างมองไม่เห็นด้วยตามนุษย์ ลงในแต่ละเฟรมของวิดีโอ เพื่อให้เครื่องตรวจจับเหยื่อจัดประเภทผิด”

ความท้าทายของ Facebook Deepfake

ผู้โจมตีสามารถสร้างวิดีโอเหล่านี้ได้ แม้ว่าพวกเขาจะไม่มีความรู้เฉพาะเกี่ยวกับสถาปัตยกรรมและพารามิเตอร์ของเครื่องตรวจจับก็ตาม การโจมตีเหล่านี้ยังคงใช้งานได้หลังจากวิดีโอถูกบีบอัด เช่นเดียวกับที่จะเกิดขึ้นหากแชร์ทางออนไลน์บนแพลตฟอร์มเช่น YouTube

เมื่อทดสอบ วิธีการนี้สามารถหลอกระบบการตรวจจับได้มากกว่า 99% เมื่อได้รับอนุญาตให้เข้าถึงโมเดลเครื่องตรวจจับ อย่างไรก็ตาม แม้จะอยู่ในระดับความสำเร็จต่ำสุด — สำหรับวิดีโอบีบอัดซึ่งไม่มีข้อมูลเกี่ยวกับรุ่นของเครื่องตรวจจับ — แต่ก็ยังเอาชนะรุ่นเหล่านั้นได้ 78.33% นั่นไม่ใช่ข่าวดี

นักวิจัยปฏิเสธที่จะเผยแพร่โค้ดของตนบนพื้นฐานที่ว่ามันอาจถูกนำไปใช้ในทางที่ผิด Neekhara กล่าว “วิดีโอที่เป็นปฏิปักษ์ที่สร้างขึ้นโดยใช้โค้ดของเราสามารถเลี่ยงเครื่องมือตรวจจับ Deepfake อื่น ๆ ที่มองไม่เห็นซึ่งถูกใช้ในการผลิตโดยโซเชียลมีเดีย [แพลตฟอร์ม]” เขาอธิบาย “เรากำลังร่วมมือกับทีมที่ทำงานเพื่อสร้างระบบตรวจจับ Deepfake เหล่านี้ และใช้การวิจัยของเราเพื่อสร้างระบบการตรวจจับที่แข็งแกร่งยิ่งขึ้น”

เกมแมวและหนูปลอม

แน่นอนว่านี่ไม่ใช่จุดสิ้นสุดของเรื่องราว ถ้าจะกลับไปสู่การเปรียบเทียบภาพยนตร์ของเรา ภาพยนตร์เรื่องนี้จะใช้เวลาประมาณ 20 นาทีเท่านั้น เรายังไปไม่ถึงจุดเกิดเหตุที่นักสืบรู้ตัวว่าหัวขโมยคิดว่าเขาหลอกเธอ หรืออีกนัยหนึ่งที่ขโมยรู้ตัวว่านักสืบรู้ว่าเขารู้ว่าเธอรู้ หรือ.. คุณได้รับภาพ

เกมแมวจับหนูสำหรับการตรวจจับ Deepfake ซึ่งมีแนวโน้มว่าจะดำเนินต่อไปเรื่อยๆ นั้นเป็นที่รู้จักกันดีสำหรับทุกคนที่เคยทำงานด้านความปลอดภัยทางไซเบอร์ แฮกเกอร์ที่เป็นอันตรายจะพบช่องโหว่ซึ่งต่อมาถูกบล็อกโดยนักพัฒนา ก่อนที่แฮกเกอร์จะพบช่องโหว่ในเวอร์ชันที่แก้ไขแล้ว ซึ่งต่อมาจะถูกปรับแต่งโดยผู้พัฒนาอีกครั้ง ดำเนินต่อไปอย่างไม่สิ้นสุด

“ใช่ ระบบสร้างและตรวจจับ Deepfake ติดตามไวรัสและไวรัสอย่างใกล้ชิด” เชห์ซีน ฮุสเซนปริญญาเอกวิศวกรรมคอมพิวเตอร์ UC San Diego นักเรียนบอกกับ Digital Trends “ในปัจจุบัน เครื่องตรวจจับ Deepfake ได้รับการฝึกฝนเกี่ยวกับชุดข้อมูลของวิดีโอจริงและวิดีโอปลอมที่สร้างขึ้นโดยใช้เทคนิคการสังเคราะห์ Deepfake ที่มีอยู่ ไม่มีการรับประกันว่าเครื่องตรวจจับดังกล่าวจะเข้าใจผิดได้กับระบบการสร้าง Deepfake ในอนาคต … เพื่อก้าวไปข้างหน้า ในการแข่งขันด้านอาวุธ วิธีการตรวจจับจำเป็นต้องได้รับการอัปเดตและฝึกอบรมเทคนิคการสังเคราะห์ Deepfake ที่กำลังจะมีขึ้นเป็นประจำ [พวกเขา] จะต้องแข็งแกร่งต่อตัวอย่างฝ่ายตรงข้ามด้วยการรวมวิดีโอของฝ่ายตรงข้ามในระหว่างการฝึกอบรม”

กระดาษอธิบายงานนี้ในหัวข้อ “Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples” ได้ถูกนำเสนอในการประชุมเสมือนจริง WACV 2021 เมื่อเร็วๆ นี้

คำแนะนำของบรรณาธิการ

  • AI เปลี่ยน Breaking Bad ให้เป็นอนิเมะ — และมันน่ากลัวมาก
  • ทำไม AI ถึงไม่มีวันครองโลก
  • ภาพลวงตาสามารถช่วยให้เราสร้าง AI รุ่นต่อไปได้
  • สัมผัสสุดท้าย: วิธีที่นักวิทยาศาสตร์ให้ประสาทสัมผัสสัมผัสเหมือนมนุษย์กับหุ่นยนต์
  • อะนาล็อกเอไอ? ฟังดูบ้าบอ แต่อาจจะเป็นอนาคตก็ได้

อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร

หมวดหมู่

ล่าสุด

วิดีโอเกมที่ดีที่สุดของเดือนมีนาคม 2023

วิดีโอเกมที่ดีที่สุดของเดือนมีนาคม 2023

ไม่ใช่เดือนตุลาคม แต่เราเพิ่งมีเดือนที่ดีสำหรับ...

นี่คือเหตุผลที่คุณควรทิ้ง Nvidia ไป AMD ในที่สุด

นี่คือเหตุผลที่คุณควรทิ้ง Nvidia ไป AMD ในที่สุด

ตลาด GPU ถูกแบ่งระหว่าง AMD และ Nvidia แต่ก็ยัง...

คำอธิบายตอนจบของ Resident Evil 4: สิ่งที่รีเมคเปลี่ยนแปลง

คำอธิบายตอนจบของ Resident Evil 4: สิ่งที่รีเมคเปลี่ยนแปลง

ของแคปคอม ยอดเยี่ยม เรซิเดนต์อีวิล 4 สร้างใหม่ ...