داخل الحرب بين Deepfakes و Deepfake Detectors

تخيل فيلمًا ملتويًا ومتقلبًا عن مجرم رئيسي يخوض حربًا ذكاءً مع أعظم محقق في العالم.

محتويات

  • مشكلة التزييف العميق
  • خداع أجهزة الكشف
  • لعبة القط والفأر العميقة

يسعى المجرم إلى تنفيذ خدعة ثقة هائلة، باستخدام خفة يد خبيرة وقدرة خارقة على إخفاء نفسه كأي شخص تقريبًا على هذا الكوكب. إنه جيد جدًا في ما يفعله لدرجة أنه يستطيع أن يجعل الناس يعتقدون أنهم رأوا أشياء لم تحدث أبدًا في الواقع.

مقاطع الفيديو الموصى بها

ولكن بعد ذلك نلتقي بالمخبر. إنها من النوع الذكي الذي لا يتوقف عند أي شيء ويمكنه اكتشاف "إخبار" أي لص. إنها تعرف فقط ما الذي تبحث عنه، وحتى أصغر السلوكيات - حاجب مرفوع هنا، وحرف متحرك منخفض هناك - يكفي لتنبيهها عندما يكون هناك شيء غريب. إنها الشخص الوحيد الذي قبض على خصمنا على الإطلاق، وهي الآن متحمسة لتعقبه مرة أخرى.

متعلق ب

  • جوائز Digital Trends Tech For Change CES 2023
  • يريد Meta تعزيز ويكيبيديا بترقية الذكاء الاصطناعي
  • كيف سنعرف متى يصبح الذكاء الاصطناعي واعيًا بالفعل؟

ومع ذلك، هناك مشكلة: اللص يعرف ذلك هي يعرف ما الذي تبحث عنه. ونتيجة لذلك، قام بتغيير لعبته، دون أن يدرك بطل الرواية ذلك.

مشكلة التزييف العميق

هذه، في جوهرها، قصة التزييف العميق واكتشاف التزييف العميق حتى الآن. Deepfakes، هو شكل من أشكال الوسائط الاصطناعية التي يمكن من خلالها تغيير أشكال الأشخاص رقميًا مثل نزع الوجه طبعة جديدة من إخراج أ. لقد كان الباحثون، مدعاة للقلق منذ ظهورهم على الساحة في عام 2017. في حين أن العديد من التزييفات العميقة تكون مرحة (تتبادل أرني لسلاي ستالون في الموقف او المنهى)، كما أنها تشكل تهديدًا محتملاً. تم استخدام Deepfakes لإنشاء مقاطع فيديو إباحية مزيفة تبدو حقيقية، كما تم استخدامها في الخدع السياسية، وكذلك في الاحتيال المالي.

وحتى لا تصبح مثل هذه الخدع مشكلة أكبر، يجب أن يكون شخص ما قادرًا على التدخل والقول بشكل قاطع متى يتم استخدام التزييف العميق ومتى لا يتم استخدامه.

"تعمل أجهزة كشف التزييف العميق من خلال البحث عن تفاصيل التزييف العميق التي ليست صحيحة تمامًا من خلال البحث في الصور ليس عن الوديان الغريبة فحسب، بل أيضًا عن أصغر الحفر الغريبة."

لم يستغرق ظهور أولى أجهزة الكشف عن التزييف العميق وقتًا طويلاً. بحلول أبريل 2018، قمت بالتغطية واحدة من الجهود السابقة للقيام بذلكالذي بناه باحثون في جامعة ميونخ التقنية بألمانيا. تمامًا مثل تقنية التزييف العميق نفسها، فقد استخدمت الذكاء الاصطناعي. - هذه المرة فقط، كان منشئوه يستخدمونه ليس لإنشاء منتجات مزيفة، بل لاكتشافها.

تعمل أجهزة كشف التزييف العميق من خلال البحث عن تفاصيل التزييف العميق غير الموجودة تمامًا مباشرة من خلال البحث في الصور ليس عن الوديان الغريبة فحسب، بل عن أصغر الحفر الغريبة. يقومون بقص بيانات الوجه من الصور ثم تمريرها عبر شبكة عصبية لمعرفة مدى شرعيتها. قد تتضمن تفاصيل الهبة أشياء مثل وميض العين بشكل سيء.

لكن الآن توصل باحثون من جامعة كاليفورنيا في سان دييغو إلى طريقة للتغلب على كاشفات التزييف العميق من خلال إدخال ما يسمى بالأمثلة العدائية في إطارات الفيديو. تمثل الأمثلة العدائية خللًا رائعًا - ولكنه مرعب - في الذكاء الاصطناعي. مصفوفة. إنهم قادرون على خداع حتى أذكى أنظمة التعرف، على سبيل المثال، أعتقد أن السلحفاة هي بندقيةأو الإسبريسو هي لعبة البيسبول. يفعلون ذلك عن طريق إضافة ضوضاء إلى الصورة بمهارة بحيث تتسبب في قيام الشبكة العصبية بإجراء تصنيف خاطئ.

مثل الخلط بين البندقية والزواحف المقذوفة. أو فيديو مزيف لواحد حقيقي.

خداع أجهزة الكشف

"لقد حدثت طفرة مؤخرًا في طرق إنشاء مقاطع فيديو واقعية عميقة التزييف" بارث نيخارا، قال طالب خريج هندسة الكمبيوتر بجامعة كاليفورنيا في سان دييغو لـ Digital Trends. "نظرًا لإمكانية استخدام مقاطع الفيديو التي تم التلاعب بها لأغراض ضارة، فقد تم بذل جهد كبير في تطوير أجهزة الكشف التي يمكنها اكتشاف مقاطع الفيديو المزيفة بشكل موثوق. على سبيل المثال، فيسبوك أطلقت مؤخرًا تحدي Deepfake Detection Challenge لتسريع الأبحاث حول تطوير أجهزة كشف التزييف العميق. [ولكن] في حين أن طرق الكشف هذه يمكن أن تحقق دقة تزيد عن 90% في مجموعة بيانات من مقاطع الفيديو المزيفة والحقيقية، فإن عملنا يُظهر أنه يمكن للمهاجم تجاوزها بسهولة. يمكن للمهاجم إدخال ضوضاء مصنوعة بعناية، غير محسوسة إلى حد ما للعين البشرية، في كل إطار من الفيديو بحيث يتم تصنيفها بشكل خاطئ بواسطة كاشف الضحية.

تحدي التزييف العميق على الفيسبوك

يمكن للمهاجمين إنشاء مقاطع الفيديو هذه حتى لو لم يكن لديهم معرفة محددة ببنية الكاشف ومعلماته. ولا تزال هذه الهجمات تعمل أيضًا بعد ضغط مقاطع الفيديو، كما يحدث إذا تمت مشاركتها عبر الإنترنت على منصة مثل YouTube.

عند اختبارها، كانت الطريقة قادرة على خداع أنظمة الكشف بنسبة تزيد عن 99% عند منحها إمكانية الوصول إلى نموذج الكاشف. ومع ذلك، حتى في أدنى مستويات النجاح - بالنسبة لمقاطع الفيديو المضغوطة التي لم تكن هناك معلومات معروفة عن نماذج الكاشف - فقد هزمتها بنسبة 78.33% من الوقت. هذه ليست أخبار رائعة.

وأشار نيخارا إلى أن الباحثين يرفضون نشر الكود الخاص بهم على أساس أنه من الممكن إساءة استخدامه. وأوضح: "من المحتمل أن تتجاوز مقاطع الفيديو العدائية التي تم إنشاؤها باستخدام الكود الخاص بنا أدوات كشف التزييف العميق الأخرى غير المرئية والتي يتم استخدامها في الإنتاج بواسطة بعض وسائل التواصل الاجتماعي". "نحن نتعاون مع الفرق التي تعمل على بناء أنظمة الكشف عن التزييف العميق، ونستخدم أبحاثنا لبناء أنظمة كشف أكثر قوة."

لعبة القط والفأر العميقة

وهذه ليست نهاية القصة بالطبع. وبالعودة إلى تشبيهنا بالفيلم، سيظل هذا بعد حوالي 20 دقيقة فقط من بدء الفيلم. لم نصل إلى مكان الحادث بعد حيث أدرك المحقق أن اللص يعتقد أنه خدعها. أو إلى النقطة التي يدرك فيها اللص أن المحققة تعرف أنه يعرف أنها تعرف. أو.. يمكنك الحصول على الصورة.

إن لعبة القط والفأر هذه للكشف عن التزييف العميق، والتي من المرجح أن تستمر إلى أجل غير مسمى، معروفة جيدًا لأي شخص عمل في مجال الأمن السيبراني. يعثر المتسللون الخبيثون على نقاط الضعف، والتي يتم حظرها بعد ذلك من قبل المطورين، قبل أن يعثر المتسللون على نقاط الضعف في نسختهم الثابتة، والتي يتم تعديلها بعد ذلك بواسطة المطورين مرة أخرى. تواصل إلى ما لا نهاية.

"نعم، أنظمة إنشاء وكشف التزييف العميق تتابع عن كثب ديناميكيات الفيروسات ومكافحة الفيروسات." شهيزين حسين، دكتوراه في هندسة الكمبيوتر بجامعة كاليفورنيا في سان دييغو. قال الطالب للاتجاهات الرقمية. "في الوقت الحالي، يتم تدريب أجهزة الكشف عن التزييف العميق على مجموعة بيانات من مقاطع الفيديو الحقيقية والمزيفة التي تم إنشاؤها باستخدام تقنيات تركيب التزييف العميق الحالية. ليس هناك ما يضمن أن أجهزة الكشف هذه ستكون مضمونة ضد أنظمة توليد التزييف العميق المستقبلية... للبقاء في المقدمة في سباق التسلح، تحتاج طرق الكشف إلى التحديث بانتظام والتدريب على تقنيات التزييف العميق القادمة. [إنهم] بحاجة أيضًا إلى أن يكونوا أقوياء في مواجهة الأمثلة العدائية من خلال دمج مقاطع الفيديو العدائية أثناء التدريب.

أ ورقة تصف هذا العملتم تقديمه مؤخرًا بعنوان "Adversarial Deepfakes: تقييم مدى تعرض كاشفات Deepfake لأمثلة عدائية" في المؤتمر الافتراضي WACV 2021.

توصيات المحررين

  • حول الذكاء الاصطناعي مسلسل Breaking Bad إلى فيلم أنمي، وهو أمر مرعب
  • لماذا لن يحكم الذكاء الاصطناعي العالم أبدًا؟
  • الخدع البصرية يمكن أن تساعدنا في بناء الجيل القادم من الذكاء الاصطناعي
  • اللمسة النهائية: كيف يمنح العلماء الروبوتات حواس اللمس الشبيهة بالإنسان
  • التناظرية منظمة العفو الدولية؟ قد يبدو الأمر جنونيًا، لكنه قد يكون المستقبل

ترقية نمط حياتكتساعد الاتجاهات الرقمية القراء على متابعة عالم التكنولوجيا سريع الخطى من خلال أحدث الأخبار ومراجعات المنتجات الممتعة والمقالات الافتتاحية الثاقبة ونظرات خاطفة فريدة من نوعها.