عندما تم طرح تطبيق Snapchat لأول مرة كجزء من فصل الهندسة الميكانيكية في جامعة ستانفورد، تساءل مساعد التدريس المذعور علنًا عما إذا كان منشئو التطبيق قد أنشأوا تطبيقًا لإرسال الرسائل النصية. وبعد أقل من عقد من الزمن، يمكن أن يساعد تطبيق Snapchat في حل واحدة من أكبر المشكلات التي تواجه التكنولوجيا حاليًا: إيقاف انتشار "الأخبار المزيفة" عبر الإنترنت.
محتويات
- إشارة للأخبار الكاذبة؟
- لعبة القط والفأر على مر العصور
ومع وضع هذا الهدف في الاعتبار، قامت شركة Snap Research - قسم الأبحاث في شركة Snap, Inc. - تبرعت مؤخرًا بتمويل لمشروع بجامعة كاليفورنيا في ريفرسايد، يهدف إلى إيجاد طريقة جديدة للكشف عن القصص الإخبارية المزيفة عبر الإنترنت. ال تم تطوير خوارزمية UC Riverside ويقال إن هذا البرنامج قادر على اكتشاف القصص الإخبارية المزيفة بمستوى دقة مثير للإعجاب يصل إلى 75 بالمائة. وبدعم Snap، يأملون في تحسين هذا الأمر بشكل أكبر.
مقاطع الفيديو الموصى بها
"كما أفهم، فإنهم مهتمون جدًا بالحصول على فهم جيد لكيفية فهم هذه المشكلة - وحلها في نهاية المطاف."
"Snap ليست من أولى الشركات التي تتبادر إلى ذهني في ضوء [هذه المشكلة]"
فاجيليس بابالكساكيس، أستاذ مساعد في قسم علوم الكمبيوتر والهندسة في جامعة كاليفورنيا في ريفرسايد، قال لـ Digital Trends. "ومع ذلك، فإن Snap هي شركة تتعامل مع المحتوى. وكما أفهم، فإنهم مهتمون جدًا بالحصول على فهم جيد لكيفية فهم هذه المشكلة وحلها في نهاية المطاف.ما يجعل أبحاث جامعة كاليفورنيا في ريفرسايد مختلفة عن العشرات، وربما حتى المئات، من المشاريع البحثية الأخرى التي تحاول كسر دورة الأخبار المزيفة هو طموح المشروع. إنها ليست أداة بسيطة لحظر الكلمات الرئيسية، ولا تهدف إلى فرض حظر شامل على عناوين URL معينة. ولعل الأمر الأكثر إثارة للاهتمام هو أنه لا يهتم بشكل خاص بالحقائق الواردة في القصص. وهذا ما يجعلها مختلفة عن مواقع التحقق من الحقائق مثل Snopes، التي تعتمد على المدخلات البشرية والتقييم بدلاً من الأتمتة الحقيقية.
قال باباليكساكيس: "أنا لا أثق حقًا في التعليقات التوضيحية البشرية". "ليس لأنني لا أثق في البشر، ولكن أصبحت هذه مشكلة صعبة بطبيعتها للحصول على إجابة محددة لها. ويأتي دافعنا لذلك من التساؤل عن مقدار ما يمكننا القيام به من خلال النظر إلى البيانات وحدها، وما إذا كان بإمكاننا استخدام أقل قدر ممكن من التعليقات التوضيحية البشرية - إن وجدت على الإطلاق.
إشارة للأخبار الكاذبة؟
تبحث الخوارزمية الجديدة في أكبر عدد ممكن من "الإشارات" من قصة إخبارية، وتستخدم ذلك لمحاولة تصنيف مدى موثوقية المقالة. قال بابالكساكيس: “من شارك المقال؟ ما الهاشتاجات التي استخدموها؟ من كتبه؟ من أي مؤسسة إخبارية هذا؟ كيف تبدو صفحة الويب؟ نحن نحاول معرفة العوامل [المهمّة] ومدى تأثيرها".
على سبيل المثال، قد لا يؤكد الوسم #LockHerUp بالضرورة أن المقالة هي أخبار مزيفة في حد ذاتها. ومع ذلك، إذا أضاف شخص ما هذه اللاحقة عندما يشارك مقالًا على تويتر، فقد يشير ذلك إلى وجهة نظر معينة للقصة. أضف ما يكفي من هذه القرائن معًا، والفكرة هي أن القطع المنفصلة تضيف ما يصل إلى كل كاشف. وبعبارة أخرى، إذا كان يمشي مثل البطة ويصدر صوتًا مثل البطة، فمن المحتمل أن يكون بطة. أو، في هذه الحالة، روبوت البط الروسي المتمايل، المدوّل، اليميني البديل.
وتابع باباليكساكيس: "مصلحتنا هي فهم ما يحدث في وقت مبكر، وكيف يمكننا الإبلاغ عن شيء ما في المراحل المبكرة قبل أن يبدأ في إصابة الشبكة". "هذا هو اهتمامنا في الوقت الحالي: العمل على ما يمكننا استخراجه من محتويات وسياق مقال معين".
تستخدم الخوارزمية التي طورتها مجموعة باباليكساكيس ما يسمى التحلل الموتر لتحليل التدفقات المختلفة من المعلومات حول مقال إخباري. Tensors عبارة عن مكعبات متعددة الأبعاد، مفيدة لنمذجة وتحليل البيانات التي تحتوي على الكثير من المكونات المختلفة. يتيح تحليل Tensor اكتشاف الأنماط في البيانات عن طريق تقسيم Tensor إلى أجزاء أولية من المعلومات، تمثل نمطًا أو موضوعًا معينًا.
"حتى عدد صغير يبعث على السخرية من المقالات المشروحة يمكن أن يقودنا إلى مستويات عالية جدًا من الدقة"
تستخدم الخوارزمية أولاً تحليل الموتر لتمثيل البيانات بطريقة تجمع القصص الإخبارية المزيفة المحتملة معًا. يقوم المستوى الثاني من الخوارزمية بعد ذلك بربط المقالات التي تعتبر قريبة من بعضها البعض. ويعتمد تحديد العلاقة بين هذه المواد على مبدأ يسمى "الذنب بالارتباط". مما يشير إلى أن الروابط بين مقالتين تعني أنه من المرجح أن تكون مشابهة لمقالة واحدة آخر.
وبعد ذلك، يتم تطبيق التعلم الآلي على الرسوم البيانية. يستخدم هذا النهج "شبه الخاضع للإشراف" عددًا صغيرًا من المقالات التي تم تصنيفها من قبل المستخدمين، ثم يطبق هذه المعرفة على مجموعة بيانات أكبر بكثير. وفي حين أن هذا لا يزال يشمل البشر على مستوى ما، إلا أنه يتضمن تعليقات بشرية أقل من معظم الطرق البديلة لتصنيف الأخبار المزيفة المحتملة. يعتمد مستوى الدقة البالغ 75 بالمائة الذي روج له الباحثون على التصفية الصحيحة لمجموعتي بيانات عامة ومجموعة إضافية مكونة من 63000 مقالة إخبارية.
وقال باباليكساكيس: "حتى عدد صغير يبعث على السخرية من المقالات المشروحة يمكن أن يقودنا إلى مستويات عالية جدًا من الدقة". "أعلى بكثير من وجود نظام حاولنا فيه التقاط الميزات الفردية، مثل اللغويات، أو أشياء أخرى قد يراها الناس على أنها معلومات مضللة."
لعبة القط والفأر على مر العصور
من منظور علوم الكمبيوتر، من السهل معرفة سبب إعجاب فاجيليس باباليكساكيس والباحثين الآخرين في جامعة كاليفورنيا في ريفرسايد - بالإضافة إلى الأشخاص في سناب شات، بهذا العمل. القدرة ليس فقط على تمييز الأخبار المزيفة عن الأخبار الحقيقية، ولكن أيضًا التمييز بين مقالات الرأي المتحيزة والصحافة الجادة أو المقالات الساخرة من الأخبار الحقيقية. البصل هو نوع من معضلة البيانات الضخمة التي يحلم بها المهندسون.
لكن السؤال الأكبر هو كيف سيتم استخدام هذه الخوارزمية، وما إذا كان يمكنها في نهاية المطاف المساعدة في القضاء على ظاهرة الأخبار المزيفة.
إن مساهمة Snap في المشروع (والتي تبلغ "هدية" بقيمة 7000 دولار ودعم غير مالي إضافي) لا تضمن أن الشركة ستتبنى التكنولوجيا في منتج تجاري. لكن باباليكساكيس قال إنه يأمل أن يؤدي البحث في النهاية إلى "نقل بعض التكنولوجيا إلى المنصة".
وأوضح أن الهدف النهائي هو تطوير نظام قادر على تزويد أي مقال بما يرقى إلى درجة الجدارة بالثقة. من الناحية النظرية، يمكن استخدام مثل هذه النتيجة لتصفية الأخبار المزيفة قبل أن تتاح لها فرصة أن يطلع عليها المستخدم.
هذه فكرة لا تختلف عن مرشحات البريد الإلكتروني العشوائي للتعلم الآلي، والتي تطبق أيضًا نظام تسجيل يعتمد على عوامل مثل نسبة الصورة إلى النص في نص الرسالة. ومع ذلك، اقترح باباليكساكيس أن النهج المفضل قد يكون ببساطة تنبيه المستخدمين إلى تلك الأشياء القصص التي تسجل درجات عالية في الفئة المزيفة المحتملة - "ثم اسمح للمستخدم أن يقرر ما يجب فعله به هو - هي."
أحد الأسباب الوجيهة لذلك هو حقيقة أن الأخبار لا تنقسم دائمًا بدقة إلى رسائل غير مرغوب فيها مقابل رسائل غير مرغوب فيها. فئات لحم الخنزير، كما يفعل البريد الإلكتروني. من المؤكد أن بعض المقالات قد تكون ملفقة تمامًا، لكن البعض الآخر قد يكون أكثر إثارة للتساؤل: فهي لا تحتوي على أكاذيب مباشرة، ولكنها مع ذلك تهدف إلى قيادة القارئ في اتجاه واحد معين. إن إزالة هذه المقالات، حتى عندما نجد آراء تتعارض مع آرائنا، تدخل في منطقة أكثر صعوبة.
وتابع باباليكساكيس: “هذا يقع في منطقة رمادية”. "لا بأس إذا تمكنا من تصنيف هذا على أنه مقال متحيز بشدة. هناك فئات مختلفة لما يمكن أن نسميه المعلومات الخاطئة. قد لا تكون [المقالة شديدة التحيز] سيئة مثل المقالة الكاذبة الصريحة، ولكنها لا تزال تبيع وجهة نظر معينة للقارئ. إنها أكثر دقة من المزيفة مقابل. غير زائف."
في النهاية، على الرغم من رغبة باباليكساكيس في التوصل إلى نظام يستخدم أقل قدر ممكن من الرقابة ممكنًا، فهو يعترف بأن هذا تحدٍ يجب أن يشمل كلا من البشر والبشر آلات.
وقال: "أرى أنها لعبة القط والفأر من وجهة نظر تكنولوجية". "لا أعتقد أن قول "حلها" هو الطريقة الصحيحة للنظر إليها. يعد تزويد الأشخاص بأداة يمكنها مساعدتهم على فهم أشياء معينة حول مقال ما جزءًا من الحل. سيكون هذا الحل عبارة عن أدوات يمكنها مساعدتك في الحكم على الأشياء بنفسك، والبقاء متعلمًا كمواطن نشط، وفهم الأشياء، والقراءة بين السطور. لا أعتقد أن الحل التكنولوجي الوحيد يمكن تطبيقه على هذه المشكلة لأن الكثير منها يعتمد على الناس وكيفية رؤيتهم للأشياء.
توصيات المحررين
- الخوارزميات تتفوق على البشر في اكتشاف الأخبار المزيفة