
เมื่อสัปดาห์ที่แล้ว สำนักงานสืบสวนกลางแห่งสหรัฐอเมริกา (เอฟบีไอ) ออกประกาศบริการสาธารณะ เกี่ยวกับการเพิ่มขึ้นของเนื้อหาที่โจ่งแจ้งแบบ Deepfake และวิธีการใช้เนื้อหาดังกล่าวในการก่ออาชญากรรม เช่น การขู่กรรโชก แบล็กเมล์ และการล่วงละเมิด ในแง่ง่ายที่สุด Deepfake คือสื่อมัลติมีเดียสังเคราะห์ที่พยายามเลียนแบบต้นฉบับ. อาจเป็นภาพถ่าย วิดีโอ หรือคลิปเสียงที่สร้างโดย AI
เนื้อหา
- สิ่งที่ผู้เชี่ยวชาญพูดเกี่ยวกับของปลอม
- คุณจะรักษาตัวเองให้ปลอดภัยได้อย่างไร
- โซเชียลมีเดียทำอย่างปลอดภัยและมีความรับผิดชอบ
- จะทำอย่างไรถ้าคุณถูกหลอกลึก
- วิธีสังเกตของปลอม
- ปัญหาร้ายแรงกับการแก้ปัญหาที่ได้ผลเพียงครึ่งเดียว
ชื่อ "deepfake" มาจากเทคโนโลยีโดยธรรมชาติที่ใช้ในการสร้างสื่อดังกล่าว ซึ่งก็คือการเรียนรู้เชิงลึก ซึ่งก็คือ เกี่ยวข้องกับการฝึกอบรมแบบจำลอง AI โดยใช้เนื้อหาต้นฉบับ จากนั้นแก้ไขเพื่อสร้างแบบจำลองที่ต้องการ ผลลัพธ์. ไม่ใช่สิ่งประดิษฐ์ใหม่อย่างแน่นอน แต่ด้วย AI กำเนิดกำลังได้รับความนิยมอย่างมาก — และการเข้าถึง — อาชญากรรมแบบ Deepfake กำลังเพิ่มขึ้น
วิดีโอแนะนำ
นั่นคือความนิยมของพวกเขาที่แม้แต่การหาเสียงของ Ron DeSantis ผู้ท้าชิงตำแหน่งประธานาธิบดีจากพรรครีพับลิกันก็ใช้ภาพปลอมของคู่แข่ง Donald Trump เพื่อใส่ร้ายเขา Deepfakes ยังเป็นหนึ่งในเหตุผลที่เรียกร้องให้มีการควบคุม AI ทุกที่ จากข้อมูลของ FBI เนื้อหาสำหรับการสร้าง Deepfake โดยทั่วไปจะยกมาจากโพสต์บนโซเชียลมีเดีย และวิดีโอคอลก่อนนำไปดัดแปลงเป็นเนื้อหาทางเพศที่โจ่งแจ้งเพื่อขู่กรรโชกและกลั่นแกล้ง
ที่เกี่ยวข้อง
- OpenAI ผู้ผลิต ChatGPT เผชิญการสอบสวน FTC เกี่ยวกับกฎหมายคุ้มครองผู้บริโภค
- ปริมาณการใช้งานเว็บไซต์ ChatGPT ลดลงเป็นครั้งแรก
- OpenAI สร้างทีมใหม่เพื่อหยุด AI อัจฉริยะจอมโกง
สิ่งที่ผู้เชี่ยวชาญพูดเกี่ยวกับของปลอม

ดังนั้นทางออกคืออะไร? น่าเสียดายที่ไม่มีวิธีแก้ปัญหา อย่างน้อยที่สุด ไม่ใช่การประนีประนอม ซึ่งเป็นสิ่งที่เปลี่ยนความหมายทั้งหมดของ “โซเชียลมีเดีย” โดยพื้นฐานแล้ว
“น่าเสียดาย วิธีเดียวที่จะแน่ใจได้ว่าไม่มีการใช้รูปภาพหรือวิดีโอของคุณในการสร้างของปลอม คือการหยุดโพสต์ใดๆ รูปภาพของคุณทางออนไลน์ แต่ผู้ใช้อินเทอร์เน็ตจะต้องสนุกมาก” Adrianus Warmenhoven ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์กล่าว ที่ปรึกษาที่ นอร์ด.
“เมื่อมีแนวปฏิบัติด้านความปลอดภัยใหม่ๆ ที่ดีขึ้น ผู้ประสงค์ร้ายจะหาทางก่อให้เกิดอันตราย มันเป็นเกมที่ต้องตามให้ทันและรู้สึกผิดหวังในบางครั้ง” Parteek Saran อดีต Googler และผู้สร้างเครื่องมือจัดการรหัสผ่านยุคหน้าชื่อว่า อูโน. เขาแนะนำเพิ่มเติมว่าเราควรลองใช้ "ปรัชญาการไม่ไว้วางใจเป็นศูนย์" เมื่อพูดถึงการโพสต์ เนื้อหาบนโซเชียลมีเดียและเน้นการสื่อสารที่มีประสิทธิภาพกับคนรู้จักเพื่อหลีกหนีจากของปลอม หลอกลวง
Yaron Litwin ผู้เชี่ยวชาญด้านความปลอดภัยทางดิจิทัลและซีเอ็มโอของ หลังคา. แอปที่มีชื่อเดียวกันของบริษัทนี้มีเป้าหมายเพื่อให้เด็กๆ ปลอดภัยจากอาชญากรรมทางเพศทางออนไลน์ และเสนอชุดการควบคุมโดยผู้ปกครองที่หลากหลายเช่นกัน Litwin เสริมว่าคุณควรหลีกเลี่ยงการโพสต์รูปภาพที่ใกล้ชิดหรือประนีประนอม ในขณะเดียวกันก็ลดความถี่ในการโพสต์แม้แต่รูปภาพปกติ
คุณจะรักษาตัวเองให้ปลอดภัยได้อย่างไร

Deepfakes นั้นน่ากลัว และเป็นการยากที่จะเข้าใจถึงบาดแผลทางใจที่พวกเขาสามารถสร้างให้กับคนๆ หนึ่งและสมาชิกในครอบครัวได้ แต่มีสองสามวิธีที่ผู้ใช้สามารถหลีกเลี่ยงการตกหลุมพราง หรืออย่างน้อยก็หลีกเลี่ยงให้มากเข้าไว้
เพื่อทำความเข้าใจว่าขั้นตอนใดโดยเฉลี่ย สมาร์ทโฟน ผู้ใช้ที่มีทักษะดิจิทัลทั่วไปสามารถทำได้ ฉันติดต่อ Andrew Gardner รองประธานฝ่ายวิจัยและนวัตกรรมที่ เจเนอเรชั่นดิจิตอลบริษัทซอฟต์แวร์ที่ให้บริการเครื่องมือด้านความปลอดภัยที่เชื่อถือได้ เช่น Norton, Avast และ Avira เป็นต้น
การ์ดเนอร์กล่าวว่าโปรโตคอลความปลอดภัยเริ่มต้นที่ระดับพื้นฐาน ผู้ใช้ควรเริ่มต้นด้วยการเปลี่ยนโปรไฟล์เป็นส่วนตัว หรืออย่างน้อยก็เปลี่ยนการตั้งค่าการเปิดเผยโพสต์ เพื่อให้เฉพาะคนที่พวกเขาติดตามร่วมกันเท่านั้นที่สามารถดูและโต้ตอบกับโพสต์ของตนได้ การควบคุมโดยผู้ปกครองซึ่งขณะนี้มีให้บริการในแพลตฟอร์มโซเชียลมีเดียหลักๆ เกือบทุกแพลตฟอร์ม ควรเปิดใช้งานอย่างขยันขันแข็งเพื่อให้ผู้ปกครองสามารถจับตาดูการโต้ตอบที่น่าสงสัยได้
เป็นคำแนะนำทั่วไปว่าเราควรยอมรับคำขอจากคนที่รู้จักเท่านั้น แต่การก้าวไปอีกขั้นหนึ่งอาจช่วยได้ในระยะยาว “หากคุณกำลังสร้างเครือข่าย ให้ตรวจสอบโพสต์และกิจกรรมล่าสุดของผู้ได้รับเชิญเพื่อดูว่าพวกเขาเป็นอย่างไร” การ์ดเนอร์กล่าว และเสริมว่าควรระวัง “บัญชี กับเพื่อนน้อยหรือเพื่อนร่วมกัน” คำแนะนำที่สำคัญอีกประการที่ผู้บริหาร Gen Digital ต้องให้คือการตรวจสอบและจำกัดโซเชียลมีเดีย เข้าสู่ระบบ

ผู้ใช้มักเยี่ยมชมบริการออนไลน์ และเพื่อหลีกเลี่ยงความยุ่งยากในการสร้างบัญชี พวกเขาเลือกใช้ตัวเลือกการลงชื่อเข้าใช้โซเชียลมีเดีย “วิธีนี้ทำให้แอปเข้าถึงข้อมูลส่วนบุคคลได้ และในบางสถานการณ์ แอปเหล่านั้นจะขายข้อมูลนั้นให้กับบุคคลที่สาม” เขากล่าว เรื่องอื้อฉาว Cambridge Analytica เกี่ยวกับ Facebook เป็นตัวอย่างที่ดี ควรตรวจสอบเป็นระยะว่าแอพใดเชื่อมต่อกับบัญชีโซเชียลมีเดียของตน และควรเพิกถอนการเข้าถึงหากไม่จำเป็น
Deepfakes เป็นอาชญากรรมที่ขับเคลื่อนด้วย AI ที่ซับซ้อน แต่การ์ดเนอร์แนะนำว่าผู้ใช้ควรปฏิบัติตามหลักเกณฑ์ด้านความปลอดภัยขั้นพื้นฐานบางประการ เช่น เช่น การเปิดใช้งานการยืนยันตัวตนแบบสองปัจจัย การใช้รหัสผ่านที่รัดกุม การเปิดใช้งานรหัสผ่านไบโอเมตริกซ์ และการหลีกเลี่ยงสิ่งที่น่าสงสัยหรือไม่รู้จัก ลิงค์
โซเชียลมีเดียทำอย่างปลอดภัยและมีความรับผิดชอบ

Litwin จาก Canopy มีความเห็นว่ายิ่งคุณแบ่งปันมากเท่าไหร่ การสร้าง Deepfake ที่น่าเชื่อถือก็จะยิ่งง่ายขึ้นเท่านั้น ไม่มีการขาดแคลนโมเดลการสร้างภาพ AI ที่ร่มรื่นโดยไม่มีข้อจำกัดใดๆ ในการสร้างเนื้อหาที่ชัดเจน เครื่องมือเหล่านี้ใช้อินพุตรูปภาพเพื่อฝึกโมเดล ยิ่งมีการป้อนข้อมูลการฝึกอบรมมากเท่าใด Deepfakes ก็ยิ่งแม่นยำและสมจริงมากขึ้นเท่านั้น
เป็นกลยุทธ์มาตรฐานที่ใช้โดยเครื่องกำเนิดภาพ AI กระแสหลักเช่น กลางการเดินทาง. หากฟีดโซเชียลของคุณเปิดอยู่และมีรูปภาพและวิดีโอจำนวนมาก ก็ไม่มีทางหยุดผู้ไม่ประสงค์ดีไม่ให้ขูดข้อมูลเหล่านั้นเพื่อสร้างของปลอมที่ประนีประนอม แต่ถ้าคุณเป็นหนึ่งในคนที่เห็นคุณค่าของโซเชียลมีเดียว่าเป็นสถานที่สำหรับเก็บความทรงจำอันน่าจดจำที่สุดของคุณ มีมาตรการบางอย่างให้คุณ ต้อง เอา.

“ระวังข้อมูลส่วนตัวที่คุณแชร์ทางออนไลน์ ปรับการตั้งค่าความเป็นส่วนตัวในบัญชีของคุณ เปิดใช้งานการยืนยันตัวตนแบบสองปัจจัย และตรวจทานรูปภาพอย่างรอบคอบเพื่อหาจุดบกพร่อง” บอยด์ คลีวิสผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ใน Forbes Security Council และผู้เขียนเรื่อง “Through The Firewall: The Alchemy Of Turning Crisis Into Opportunity”
แต่จะสังเกตได้อย่างไรว่าโปรไฟล์โซเชียลมีเดียที่น่าจะมีผู้ไม่หวังดีอยู่เบื้องหลังนั้นมีส่วนในการกระทำที่คลุมเครือ เช่น การสร้างและเผยแพร่ข้อมูลเท็จ “หากมีการแชร์เนื้อหาวิดีโอหรือเสียงจากโปรไฟล์ที่น่าสงสัย และบัญชีไม่มีข้อมูลส่วนบุคคลหรือ มีแนวโน้มว่าโปรไฟล์นั้นเป็นของปลอม” โทมัส ซามูลิส สถาปนิกด้านการรักษาความปลอดภัยข้อมูลที่ Baltic Amadeus แนะนำ เขาแนะนำว่าโปรไฟล์ดังกล่าวที่ไม่มีข้อมูลระบุตัวบุคคลนั้นถูกสร้างขึ้นโดยเฉพาะเพื่อเผยแพร่ข้อมูลปลอมและข้อมูลที่เป็นข้อขัดแย้งอื่นๆ”
จะทำอย่างไรถ้าคุณถูกหลอกลึก

แต่มีข้อควรระวังเพียงอย่างเดียวที่ผู้ใช้สมาร์ทโฟนทั่วไปสามารถทำได้ แม้แต่ผู้ใช้ที่เชี่ยวชาญด้านดิจิทัลที่สุดก็ยังพบว่าตัวเองได้รับอาชญากรไซเบอร์ในที่สุด แม้ว่าหลังจากนั้น โดยใช้เครื่องมือมาตรฐานทั้งหมด เช่น การยืนยันตัวตนแบบสองปัจจัย โปรไฟล์ส่วนตัว และไบโอเมตริก ไฟร์วอลล์
หากแม้จะใช้มาตรการป้องกันทั้งหมดแล้ว แต่คุณยังคงพบว่าตัวเองเป็นศูนย์กลางของอาชญากรรมปลอม ให้ขอคำแนะนำจากผู้เชี่ยวชาญและความช่วยเหลือจากเจ้าหน้าที่ แทนที่จะจัดการเรื่องต่างๆ ด้วยตัวเอง ผู้เชี่ยวชาญสังเกตว่าการนั่งจมอยู่กับการคุกคามเช่นนี้หรือพยายามจัดการอย่างรอบคอบด้วยตัวเองมักทำให้สถานการณ์ของเหยื่อแย่ลง
“หากคุณพบว่ามีคนนำเนื้อหาของคุณไปใช้ในทางที่ผิด ให้ขอคำปรึกษาที่คุ้นเคยกับกฎหมายลิขสิทธิ์เพื่อช่วยลบเนื้อหาดังกล่าว อย่างรวดเร็วที่สุดเท่าที่จะเป็นไปได้” Rob Scott ซึ่งเป็นสมาชิกของ Dallas Bar Association และผู้เชี่ยวชาญด้านกฎหมายที่ได้รับใบอนุญาตในสาขาต่างๆ เช่น ความเสี่ยงด้านความปลอดภัยทางไซเบอร์และข้อมูล ความเป็นส่วนตัว.
การปรึกษาผู้เชี่ยวชาญด้านกฎหมายเป็นสิ่งสำคัญเพราะพวกเขาสามารถแนะนำคุณเกี่ยวกับสิทธิ์ดิจิทัลของคุณ Litwin จาก Canopy ยังแนะนำให้รักษา หลักฐาน แนะนำให้เหยื่อ "บันทึกหลักฐานใดๆ ของการพยายามขู่กรรโชก เช่น ข้อความ อีเมล หรือรูปแบบการสื่อสารใดๆ ที่เกี่ยวข้องกับ กรรโชก”
คำแนะนำที่สำคัญอีกประการหนึ่งคือ เหยื่อควรยุติการติดต่อกับอาชญากรทั้งหมดทันที เนื่องจากอาชญากรสามารถชักใยหรือก่อกวนพวกเขาด้วยการขู่กรรโชกที่รุนแรงกว่านี้ ในขณะเดียวกัน ผู้ใช้ควรติดต่อผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์หรือโทรติดต่อสายด่วนอาชญากรรมทางไซเบอร์ของรัฐบาลเพื่อดำเนินมาตรการที่เหมาะสมได้ทันท่วงที
วิธีสังเกตของปลอม

เมื่อเอ็นจิ้น AI มีความซับซ้อนมากขึ้นเรื่อยๆ ประเภทของ Deepfake ที่พวกเขาสร้างขึ้นนั้นกลายเป็นจริงอย่างน่าขนลุกและยากต่อการตรวจจับ อย่างไรก็ตาม ยังมีเครื่องหมายบางอย่างที่ผู้ใช้สามารถให้ความสนใจเพื่อระบุวัสดุที่ถูกดัดแปลงโดยสังเคราะห์หรือสร้างขึ้นโดย AI
ต่อไปนี้คือการรวบรวมตัวระบุ Deepfake ที่ผู้เชี่ยวชาญนำเสนอ:
- ระวังการเคลื่อนไหวของดวงตาที่ไม่เป็นธรรมชาติ หากตาของบุคคลหนึ่งไม่กะพริบ ตาปิดอยู่ หรือการแสดงสีหน้าไม่สอดคล้องกับคำที่พวกเขาพูด เป็นไปได้มากว่าจะเป็นคลิปปลอม การขาดอารมณ์หรืออารมณ์ที่ไม่ต่อเนื่องกันเป็นตัวบ่งชี้ว่าสื่อมีการเปลี่ยนแปลงทางดิจิทัล
- “โดยทั่วไปแล้ว เทคโนโลยี Deepfake จะมุ่งเน้นไปที่ลักษณะใบหน้า” การ์ดเนอร์กล่าว “หากรูปร่างของบุคคลนั้นดูไม่เป็นธรรมชาติ หรือหากการเคลื่อนไหวของพวกเขากระตุกและไม่ปะติดปะต่อ วิดีโอนั้นน่าจะเป็นของปลอม”
- เครื่องหมายที่เชื่อถือได้อีกอย่างคือพื้นหลัง ซึ่งอาจดูเหมือนพร่ามัวอย่างผิดธรรมชาติหรือแสดงสิ่งประดิษฐ์ที่มองเห็นได้แปลกๆ อีกวิธีง่ายๆ ในการตรวจจับของปลอมคือการมองหาการเปลี่ยนสีที่ผิดปกติหรือสีที่ไม่ตรงกันอย่างรุนแรง โดยเฉพาะอย่างยิ่งในส่วนที่เกี่ยวกับใบหน้าและเงาของสิ่งของรอบๆ
- หากคุณเจอภาพถ่ายที่คนๆ หนึ่งกำลังโยก "ผมที่สมบูรณ์แบบ" และคุณมองไม่เห็นองค์ประกอบใดๆ เช่น เส้นผมที่ชี้ฟูเล็กน้อยหรือผมชี้ฟู ให้ระวังตัวไว้ เป็นที่ทราบกันดีว่าโมเดล AI นั้นต่อสู้กับฟัน มองหาฟันที่สมบูรณ์แบบผิดธรรมชาติ หรือฟันที่ไม่มีรูปร่างสำหรับฟันแต่ละซี่ หรืออาจมีจำนวนฟันมากกว่าฟันปลอมของมนุษย์ทั่วไป
- ส่วนต่าง ๆ ของร่างกายไม่ตรงแนว ขอบเบลอ นิ้วเกินหรือน้อยกว่าเล็กน้อย แขนขาบิดเบี้ยวผิดปกติ การเคลื่อนไหวไม่ประสานกัน ของส่วนต่างๆ ของร่างกาย และเสียงที่ขาดช่วงและหยุดพักทางอารมณ์เป็นสัญญาณอื่นๆ ที่คุณควรระวังอย่างใกล้ชิด สำหรับ. “เสียงพูดหรือไฟล์เสียงปลอมมักจะมีเสียงรบกวน เสียงหุ่นยนต์ และการออกเสียงแปลกๆ” ซามูลิสอธิบาย
ปัญหาร้ายแรงกับการแก้ปัญหาที่ได้ผลเพียงครึ่งเดียว

ตามที่ได้อธิบายไว้ข้างต้น ไม่มีเครือข่ายความปลอดภัยใดที่ป้องกันการหลอกหลวงได้ แต่ถ้าคุณระมัดระวังเกี่ยวกับตำแหน่งที่คุณแชร์รูปภาพ ใครสามารถเห็นได้ และการเข้าถึงสื่อสังคมออนไลน์ของคุณไปไกลแค่ไหน คุณก็สามารถอยู่ในโซนที่ค่อนข้างปลอดภัยได้
นอกจากนี้ คุณควรให้ความสนใจว่าใครคือเพื่อนออนไลน์ของพวกเขา และตรวจสอบกิจกรรมของคำเชิญใหม่ก่อนที่จะเพิ่มพวกเขาในแวดวงเพื่อนบนโซเชียลมีเดีย เท่าที่ลึกลงไปมันก็ค่อนข้างยุ่งยาก แต่ถ้าคุณคอยระแวดระวังและใช้เวลาในการประเมินความไม่สอดคล้องกันของภาพถ่ายหรือวิดีโอที่น่าสงสัย การปลอมตัวแบบ Deepfake จะถูกตรวจพบด้วยระดับความแม่นยำที่ค่อนข้างสูง
ท้ายที่สุดแล้ว ทั้งหมดนี้เป็นเรื่องของการปลูกฝังนิสัยออนไลน์ที่ถูกสุขลักษณะและระมัดระวังในพื้นที่ออนไลน์ที่มีแนวโน้มว่าจะมีการปลอมแปลงมากขึ้นเรื่อยๆ
คำแนะนำของบรรณาธิการ
- Google Bard พูดได้แล้ว แต่จะกลบ ChatGPT ได้ไหม
- บริษัท AI ใหม่ของ Elon Musk ตั้งเป้าที่จะ 'เข้าใจจักรวาล'
- การค้นพบใหม่ของ AI อาจมาจากสมองของผึ้ง นักวิทยาศาสตร์กล่าว
- OpenAI เปิดเผยที่ตั้งของด่านต่างประเทศแห่งแรก
- 81% คิดว่า ChatGPT มีความเสี่ยงด้านความปลอดภัย ผลสำรวจพบ