
في الأسبوع الماضي ، مكتب التحقيقات الفيدرالي (FBI) أصدر إعلان الخدمة العامة حول زيادة المحتوى الصريح للتزييف العميق وكيفية استخدامه في جرائم مثل الابتزاز والابتزاز والمضايقات. بأبسط العبارات ، التزييف العميق عبارة عن مادة وسائط متعددة اصطناعية تحاول تقليد نسخة أصلية. يمكن أن يكون صورة أو مقطع فيديو أو مقطع صوتي من جيل الذكاء الاصطناعي.
محتويات
- ماذا يقول الخبراء عن تقنية التزييف العميق
- كيف يمكنك الحفاظ على نفسك آمنة
- وسائل التواصل الاجتماعي تتم بشكل آمن ومسؤول
- ماذا تفعل إذا تعرضت للتزييف العميق
- كيف تكتشف التزييف العميق
- مشكلة خطيرة مع حلول نصف فعالة
يأتي اسم "deepfake" من التكنولوجيا المتأصلة المستخدمة في إنشاء مثل هذه الوسائط - التعلم العميق - والتي يتضمن تدريب نموذج ذكاء اصطناعي باستخدام المواد الأصلية ثم تعديله لتوليد المطلوب نتائج. إنه ليس اختراعًا جديدًا تمامًا ، ولكن مع تنفجر شعبية الذكاء الاصطناعي التوليدية - والوصول - جرائم التزييف العميق آخذة في الازدياد.
مقاطع الفيديو الموصى بها
هذه هي شعبيتها لدرجة أن حتى حملة المرشح الجمهوري للرئاسة رون ديسانتيس استخدمت صورًا مزيفة لمنافسه دونالد ترامب لإيذائه. Deepfakes هي أيضًا أحد الأسباب التي تثار دعوات تنظيم الذكاء الاصطناعي في كل مكان. وفقًا لمكتب التحقيقات الفيدرالي (FBI) ، يتم رفع محتوى إنشاء التزييف العميق بشكل عام من منشورات وسائل التواصل الاجتماعي ومقاطع مكالمات الفيديو قبل تعديلها إلى مواد جنسية صريحة للابتزاز والتنمر.
متعلق ب
- يواجه OpenAI صانع ChatGPT تحقيق لجنة التجارة الفيدرالية بشأن قوانين حماية المستهلك
- انخفضت حركة مرور موقع ChatGPT لأول مرة
- أوبن إيه آي يبني فريقًا جديدًا لمنع الذكاء الاصطناعي الخارق من الانزلاق إلى المارقة
ماذا يقول الخبراء عن تقنية التزييف العميق

إذن ، ما الحل؟ لسوء الحظ ، لا يوجد حل. على الأقل ، ليس من دون تقديم حل وسط - حل يقلب بشكل أساسي المعنى الكامل لـ "وسائل التواصل الاجتماعي" رأسًا على عقب.
"للأسف ، الطريقة الوحيدة للتأكد من عدم استخدام أي من صورك أو مقاطع الفيديو الخاصة بك لإنشاء صور مزيفة هي التوقف عن نشر أي يقول Adrianus Warmenhoven ، أحد خبراء الأمن السيبراني مستشار في نورد.
"مع ظهور ممارسات أمنية جديدة وأفضل ، سيجد الفاعلون الخبثاء طريقة لإحداث الضرر. يقول بارتيك ساران ، موظف Google السابق ومنشئ أداة إدارة كلمات المرور من الجيل التالي تسمى أونو. كما يقترح أنه ينبغي على المرء أن يحاول اعتماد "فلسفة عدم الثقة" عندما يتعلق الأمر بالنشر المحتوى على وسائل التواصل الاجتماعي ويؤكد على التواصل الفعال مع المعارف للابتعاد عن التزييف العميق الحيل.
يقول يارون ليتوين ، خبير السلامة الرقمية ومدير التسويق في شركة ظلة. يستهدف التطبيق الذي يحمل اسم الشركة الحفاظ على الأطفال في مأمن من الجرائم الجنسية عبر الإنترنت ويقدم أيضًا مجموعة متنوعة من أدوات الرقابة الأبوية. يضيف Litwin أنه يجب عليك تجنب نشر الصور الحميمة أو المساومة مع تقليل تكرار نشر حتى الصور العادية.
كيف يمكنك الحفاظ على نفسك آمنة

إن تقنية Deepfakes مرعبة ، ومن الصعب فهم الصدمة التي يمكن أن تسببها لأي شخص وأفراد أسرته. ولكن هناك بعض الطرق التي يمكن للمستخدمين من خلالها تجنب الوقوع في الفخ ، أو على الأقل الابتعاد إلى حد كبير.
لفهم ما متوسط الخطوات هاتف ذكي يمكن للمستخدمين ذوي المهارات الرقمية النموذجية القيام بذلك ، لقد تواصلت مع أندرو غاردنر ، نائب رئيس البحث والابتكار في جين ديجيتال، وهي شركة برمجيات تقدم أدوات أمان موثوقة مثل Norton و Avast و Avira وغيرها.
يقول غاردنر إن بروتوكولات السلامة تبدأ من المستوى الأساسي. يجب أن يبدأ المستخدمون بتحويل ملفاتهم الشخصية إلى خاصة - أو على الأقل تغيير إعدادات رؤية المنشور حتى يتمكن الأشخاص الذين يتابعونهم بشكل متبادل فقط من رؤية منشوراتهم والتفاعل معها. الرقابة الأبوية، التي تتوفر الآن لكل منصة وسائط اجتماعية رئيسية تقريبًا ، يجب تمكينها بجدية حتى يتمكن الأوصياء من مراقبة أي تفاعلات مشبوهة.
إنه مستشار عام أنه يجب على المرء فقط قبول الطلبات من الأشخاص الذين يعرفونهم ، ولكن اتخاذ خطوة إضافية يمكن أن يقطع شوطًا طويلاً. يقول غاردنر: "إذا كنت تعمل على شبكة ، فتحقق من مشاركات وأنشطة المدعوين الأخيرة لقياس مدى حقيقتها" ، مضيفًا أنه يجب على المرء أن يكون حذرًا من "الحسابات مع عدد قليل من الأصدقاء أو الأصدقاء المشتركين ". نصيحة مهمة أخرى يجب على المدير التنفيذي لشركة Gen Digital تقديمها هي التحقق من وسائل التواصل الاجتماعي وتقييدها تسجيلات الدخول.

غالبًا ما يزور المستخدمون الخدمات عبر الإنترنت ، ولتجنب متاعب إنشاء حساب ، يختارون خيار تسجيل الدخول إلى وسائل التواصل الاجتماعي. ويضيف: "يمنح هذا التطبيقات إمكانية الوصول إلى المعلومات الشخصية ، وفي بعض المواقف ، تبيع هذه التطبيقات هذه المعلومات إلى أطراف ثالثة". فضيحة Cambridge Analytica التي تنطوي على Facebook هو مثال رائع. يجب على المرء أن يتحقق بشكل دوري من التطبيقات المتصلة بحسابات وسائل التواصل الاجتماعي الخاصة بهم ، وإذا لزم الأمر ، يجب إلغاء وصولهم.
Deepfakes هي جرائم معقدة تعمل بالذكاء الاصطناعي ، لكن جاردنر يقترح أنه يجب على المستخدمين الالتزام ببعض إرشادات السلامة الأساسية - مثل مثل تمكين المصادقة الثنائية ، واستخدام كلمات مرور قوية ، وتمكين مفاتيح المرور البيومترية ، وتجنب أي مشبوه أو غير معروف الروابط.
وسائل التواصل الاجتماعي تتم بشكل آمن ومسؤول

يرى Litwin من Canopy أنه كلما شاركت أكثر ، أصبح من الأسهل إنشاء صور مزيفة مقنعة. لا توجد ندرة في نماذج إنشاء الصور الظليلة بالذكاء الاصطناعي دون أي قيود على إنشاء مواد صريحة. تعتمد هذه الأدوات على مدخلات الصورة لتدريب النموذج. كلما زادت بيانات التدريب التي يتم تغذيتها ، أصبحت تقنية التزييف العميق أكثر دقة وواقعية.
إنه التكتيك القياسي الذي يتم تنفيذه بواسطة منشئي صور الذكاء الاصطناعي السائد مثل ميدجورني. إذا كانت خلاصتك الاجتماعية مفتوحة وتحتوي على كمية وافرة من الصور ومقاطع الفيديو ، فليس هناك ما يمنع أي ممثل سيء من التخلص منها لإنشاء صور مزيفة. ولكن إذا كنت من بين الأشخاص الذين يرون قيمة في وسائل التواصل الاجتماعي كمكان للحفاظ على ذكرياتك العزيزة ، فهناك بعض الإجراءات التي يجب عليك اتباعها يجب يأخذ.

"كن حذرًا بشأن المعلومات الشخصية التي تشاركها عبر الإنترنت ، واضبط إعدادات الخصوصية على حساباتك ، وقم بتمكين المصادقة الثنائية ، وراجع الصور بعناية بحثًا عن أي عيوب" ، يلاحظ بويد كلويس، خبير في الأمن السيبراني في مجلس فوربس للأمن ومؤلف كتاب "عبر جدار الحماية: كيمياء تحويل الأزمة إلى فرصة".
ولكن كيف تكتشف بشكل موثوق ملفًا شخصيًا على وسائل التواصل الاجتماعي من المحتمل أن يكون لديه ممثل سيئ وراءه يشارك في أعمال مشبوهة مثل إنشاء مقاطع فيديو مزيفة ونشرها؟ "إذا تمت مشاركة مقاطع فيديو أو مواد صوتية من ملفات شخصية مشبوهة ، ولم تحتوي الحسابات على أي معلومات شخصية أو يقترح توماس ساموليس ، مهندس أمن المعلومات في Baltic Amadeus ، أن الصور ، من المحتمل أن يكون الملف الشخصي مزيفًا. ويقترح أن مثل هذه الملفات الشخصية التي تفتقر إلى معلومات التعريف الشخصية تم إنشاؤها خصيصًا لنشر المعلومات المزيفة وغيرها من المعلومات المثيرة للجدل ".
ماذا تفعل إذا تعرضت للتزييف العميق

ولكن هناك الكثير من الاحتياطات التي يمكن أن يتخذها مستخدم الهاتف الذكي العادي. حتى أكثر المستخدمين ذكاءً رقميًا يجدون أنفسهم في الطرف المتلقي للجرائم الإلكترونية ، حتى بعد ذلك باستخدام جميع الأدوات القياسية مثل المصادقة الثنائية والملفات الشخصية الخاصة والقياسات الحيوية جدران الحماية.
إذا كنت لا تزال تجد نفسك في قلب جريمة التزييف العميق ، على الرغم من اتخاذ جميع الاحتياطات ، فاطلب مشورة الخبراء والمساعدة من السلطات بدلاً من أخذ الأمور بين يديك. يلاحظ الخبراء أن الجلوس على مثل هذه المضايقات أو محاولة التعامل معها بحذر من تلقاء نفسها غالبًا ما يؤدي إلى تفاقم وضع الضحايا.
"إذا اكتشفت أن شخصًا ما يسيء استخدام المحتوى الخاص بك ، فاطلب استشارة على دراية بقانون حقوق الطبع والنشر لمساعدتك في إزالة المحتوى كـ يقول روب سكوت ، عضو نقابة المحامين في دالاس وخبير قانوني مرخص في مجالات مثل مخاطر الأمن السيبراني والبيانات خصوصية.
تعتبر استشارة خبير قانوني أمرًا بالغ الأهمية لأنه يمكن أن يرشدك عبر حقوقك الرقمية ، كما يقترح Canopy’s Litwin أيضًا الحفاظ على جميع دليل ، نصح الضحايا "بتوثيق أي دليل على محاولات الابتزاز ، مثل الرسائل أو رسائل البريد الإلكتروني أو أي شكل من أشكال الاتصال المتعلقة بـ الابتزاز ".
نصيحة مهمة أخرى هي أن الضحية يجب أن توقف على الفور كل اتصال مع مجرم لأن المجرم يمكن أن يتلاعب به أو يضايقه بمطالب ابتزاز أكثر جدية. في الوقت نفسه ، يجب على المستخدمين الاتصال بخبير في الأمن السيبراني أو الاتصال بأحد خطوط المساعدة الحكومية لمكافحة الجرائم الإلكترونية لاتخاذ الإجراءات الصحيحة في الوقت المناسب.
كيف تكتشف التزييف العميق

مع تزايد تطور محركات الذكاء الاصطناعي ، أصبح نوع التزييف العميق الذي تنتجه حقيقيًا بشكل مخيف ويصعب اكتشافه. ومع ذلك ، لا يزال هناك عدد قليل من العلامات التي يمكن للمستخدمين الانتباه إليها من أجل اكتشاف المواد التي تم تغييرها صناعياً أو التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
فيما يلي مجموعة من معرّفات التزييف العميق التي يجب على الخبراء تقديمها:
- ابحث عن حركات العين غير الطبيعية. إذا كانت عيون الشخص لا تبدو وكأنها تومض ، أو أن حركة العين متوقفة ، أو أن تعابير الوجه لا تبدو متزامنة مع الكلمات التي يتحدثون بها ، فمن المرجح أن يكون هذا مقطعًا مزيفًا عميقًا. يعد نقص المشاعر ، أو عدم الترابط في المشاعر ، علامة واضحة على أن الوسائط قد تم تحويلها رقميًا.
- يقول غاردنر: "تركز تقنية Deepfake عادة على ملامح الوجه". "إذا كان شكل جسم الشخص لا يبدو طبيعيًا ، أو إذا كانت حركاته متقطعة ومفككة ، فمن المحتمل أن يكون الفيديو مزيفًا بشكل عميق."
- هناك علامة أخرى يمكن الاعتماد عليها وهي الخلفية ، والتي يمكن أن تبدو ضبابية بشكل غير طبيعي أو تظهر عناصر بصرية غريبة. هناك طريقة أخرى سهلة لاكتشاف التزييف العميق وهي البحث عن تلون غير طبيعي أو عدم تطابق خطير في اللون ، خاصة فيما يتعلق بالوجه وظلال العناصر المحيطة.
- إذا صادفت صورة يظهر فيها شخص يهز "الشعر المثالي" ولا يمكنك تحديد أي عناصر فردية مثل بعض خيوط الشعر المتطاير أو التجعد ، فابق حذرًا. من المعروف أيضًا أن نماذج الذكاء الاصطناعي تصارع الأسنان. ابحث عن الأسنان المثالية بشكل غير طبيعي ، أو تلك التي تفتقر إلى الخطوط العريضة للأسنان الفردية ، أو ربما أسنان أكثر من طقم الأسنان البشري المعتاد.
- أجزاء الجسم المنحرفة ، الحواف غير الواضحة ، بضعة أصابع إضافية أو أقل ، أطراف ملتوية بشكل غريب ، حركة غير متزامنة من أجزاء الجسم ، والصوت الذي يفتقر إلى التوقفات والفواصل العاطفية هي العلامات الأخرى التي يجب أن تنتبه لها عن كثب ل. يوضح Samulis قائلاً: "غالبًا ما يكون للصوت المزيف أو التسجيلات الصوتية ضجيج في الخلفية وأصوات روبوتية ونطق غريب".
مشكلة خطيرة مع حلول نصف فعالة

كما هو موضح أعلاه ، لا توجد شبكة أمان ضد التزييف العميق. ولكن إذا كنت حريصًا على مكان مشاركة الصور ، ومن يمكنه رؤيتها ، وإلى أي مدى يصل وصولك إلى وسائل التواصل الاجتماعي ، يمكنك البقاء في منطقة آمنة نسبيًا.
يجب على المرء أيضًا الانتباه إلى من هم أصدقاؤه عبر الإنترنت ، وكذلك فحص أنشطة الدعوات الجديدة قبل إضافتها إلى دائرة أصدقائهم على وسائل التواصل الاجتماعي. بقدر ما يذهب التزييف العميق ، هذا صعب بعض الشيء. ولكن إذا بقيت متيقظًا واستغرقت وقتًا لتقييم التناقضات في صورة أو مقطع فيديو مشبوه ، فيمكن رصد التزييف العميق بدرجة عالية من الدقة.
في نهاية المطاف ، يتعلق الأمر بتنمية العادات الصحية عبر الإنترنت والبقاء متيقظًا في مساحة على الإنترنت معرضة بشكل متزايد للتزوير.
توصيات المحررين
- يستطيع Google Bard التحدث الآن ، ولكن هل يمكنه إغراق ChatGPT؟
- تهدف شركة الذكاء الاصطناعي الجديدة التابعة لـ Elon Musk إلى "فهم الكون"
- يقول العلماء إن اختراقات الذكاء الاصطناعي يمكن أن تأتي من خلال أدمغة النحل
- أوبن إيه آي تكشف عن موقع أول بؤرة أمامية دولية لها
- 81٪ يعتقدون أن ChatGPT يمثل خطرًا أمنيًا ، كما وجد الاستطلاع