האם Snap יכול להציל את האינטרנט מפני חדשות מזויפות? הנה הנשק הסודי של החברה

ואגליס פפאלקסאקיסUC Riverside

כש-Snapchat הוצג לראשונה כחלק מכיתת הנדסת מכונות בסטנפורד, עוזר ההוראה המחריד של הקורס תהה בגלוי אם יוצרי האפליקציה בנו אפליקציית סקסטינג. פחות מעשור לאחר מכן, Snapchat יכול לעזור לפתור את אחת הבעיות הגדולות ביותר שעומדות בפני הטכנולוגיה כיום: עצירת הפצת "חדשות מזויפות" באינטרנט.

תוכן

  • האות לחדשות מזויפות?
  • משחק חתול ועכבר לגילאים

עם מטרה זו בראש, Snap Research - חטיבת המחקר של Snap, Inc. - תרם לאחרונה מימון לפרויקט של אוניברסיטת קליפורניה, ריברסייד, שמטרתו למצוא דרך חדשה לגילוי ידיעות מזויפות באינטרנט. ה אלגוריתם UC Riverside פיתחה על פי הדיווחים, מסוגל לזהות כתבות חדשות מזויפות ברמת דיוק מרשימה של עד 75 אחוז. עם התמיכה של Snap, הם מקווים לשפר זאת עוד יותר.

סרטונים מומלצים

"לפי שאני מבין את זה, הם מאוד מעוניינים להבין טוב איך אפשר להבין את הבעיה הזו - ולפתור אותה בסופו של דבר".

"Snap היא לא אחת החברות הראשונות שיעלו בראש בהינתן [בעיה זו]", ואגליס פפאלקסאקיס, פרופסור עוזר במחלקה למדעי המחשב והנדסה ב-UC Riverside, סיפר ל-Digital Trends. "עם זאת, Snap היא חברה שמטפלת בתוכן. כפי שאני מבין את זה, הם מאוד מעוניינים להבין טוב איך אפשר להבין את הבעיה הזו - ולפתור אותה בסופו של דבר".

מה שמייחד את המחקר של UC Riverside לעומת עשרות, אולי אפילו מאות, פרויקטי מחקר אחרים שמנסים לשבור את מעגל החדשות המזויפות הוא השאיפה של הפרויקט. זה לא חוסם מילות מפתח פשוט, וגם לא מטרתו להטיל איסור גורף על כתובות אתרים מסוימות. גם, אולי המעניין ביותר, הוא לא מתעניין במיוחד בעובדות הכלולות בסיפורים. זה מבדיל מאתרי בדיקת עובדות כמו Snopes, המסתמכים על קלט והערכה אנושיים במקום אוטומציה אמיתית.

"אני לא באמת סומך על הערות אנושיות", אמר פפלקסקיס. "לא בגלל שאני לא סומך על בני אדם, אבל הופך שזו בעיה מטבעה שקשה לקבל עליה תשובה סופית. המוטיבציה שלנו לכך נובעת מהשאלה כמה אנחנו יכולים לעשות על ידי התבוננות בנתונים בלבד, והאם אנחנו יכולים להשתמש בכמה שפחות הערות אנושיות - אם בכלל".

האות לחדשות מזויפות?

האלגוריתם החדש בוחן כמה שיותר "אותות" מכתבה חדשותית, ומשתמש בכך כדי לנסות ולסווג את מהימנות המאמר. Papalexakis אמר: "מי שיתף את המאמר? באילו האשטאגים הם השתמשו? מי כתב את זה? מאיזה ארגון חדשות זה? איך נראה דף האינטרנט? אנחנו מנסים להבין אילו גורמים [חשובים] וכמה השפעה יש להם".

לדוגמה, ההאשטאג #LockHerUp לא בהכרח מאשר שמאמר הוא חדשות מזויפות בפני עצמו. עם זאת, אם אדם מוסיף את הסיומת הזו כאשר הוא משתף מאמר בטוויטר, זה יכול להציע נטייה מסוימת לסיפור. הוסף מספיק רמזים אלה יחד, והרעיון הוא שהחלקים הנפרדים מצטברים לכדי שלם חושפני. במילים אחרות, אם הוא הולך כמו ברווז ומנקרט כמו ברווז, רוב הסיכויים שזה ברווז. או, במקרה הזה, בוט ברווז רוסי משכשך, רוטט, ימין.

מחאת חדשות מזויפות
Snapchat תומך באלגוריתם להילחם במחאת חדשות מזויפות getty2

"האינטרס שלנו הוא להבין מה קורה בשלב מוקדם, ואיך אנחנו יכולים לסמן משהו בשלבים המוקדמים לפני שהוא מתחיל 'להדביק' את הרשת", המשיך Papalexakis. "זה האינטרס שלנו לעת עתה: להבין מה אנחנו יכולים לסחוט מהתוכן ומההקשר של מאמר מסוים."

האלגוריתם שפותח על ידי הקבוצה של Papalexakis משתמש במשהו שנקרא פירוק טנזור כדי לנתח את זרמי המידע השונים על מאמר חדשותי. טנסורים הם קוביות רב מימדיות, שימושיות למידול וניתוח נתונים שיש להם הרבה מרכיבים שונים. פירוק טנזור מאפשר לגלות דפוסים בנתונים על ידי פירוק טנזור לפיסות מידע בסיסיות, המייצגות דפוס או נושא מסוים.

"אפילו מספר קטן עד כדי גיחוך של מאמרים עם הערות יכול להוביל אותנו לרמות דיוק ממש ממש גבוהות"

האלגוריתם משתמש תחילה בפירוק טנזור כדי לייצג נתונים בצורה כזו שהוא מקבץ ידיעות מזויפות אפשריות יחד. רובד שני באלגוריתם מחבר לאחר מכן מאמרים שנחשבים קרובים זה לזה. מיפוי הקשר בין מאמרים אלה מסתמך על עיקרון הנקרא "אשמה על ידי אסוציאציה", מה שמציע שהקשרים בין שני מאמרים פירושם שהם יהיו דומים יותר לאחד אַחֵר.

לאחר מכן, למידת מכונה מיושמת על הגרפים. גישה "מפוקחת למחצה" זו משתמשת במספר קטן של מאמרים שסווגו על ידי משתמשים, ולאחר מכן מיישמת את הידע הזה על מערך נתונים גדול בהרבה. למרות שזה עדיין כרוך בבני אדם ברמה מסוימת, זה כרוך בפחות הערות אנושיות מרוב השיטות החלופיות לסיווג חדשות מזויפות פוטנציאליות. רמת הדיוק של 75 אחוזים שהוגדרה על ידי החוקרים מבוססת על סינון נכון של שני מערכי נתונים ציבוריים ואוסף נוסף של 63,000 כתבות חדשותיות.

"אפילו מספר קטן עד כדי גיחוך של מאמרים מוערים יכול להוביל אותנו לרמות דיוק ממש ממש גבוהות", אמר Papalexakis. "הרבה יותר גבוה מאשר שיש מערכת שבה ניסינו ללכוד מאפיינים בודדים, כמו בלשנות, או דברים אחרים שאנשים עשויים לראות כאינפורמטיביים."

משחק חתול ועכבר לגילאים

מנקודת מבט של מדעי המחשב, קל להבין מדוע העבודה הזו תמשוך את Vagelis Papalexakis ואת החוקרים האחרים ב-UC Riverside - כמו גם את האנשים ב-Snapchat. היכולת לא רק למיין חדשות מזויפות וחדשות אמיתיות, אלא גם להבחין בין תגובות מוטות לעיתונאות רצינית או מאמרים סאטיריים הבצל הוא מסוג ה-Big Data Conundrum מהנדסי חולמים עליהם.

עם זאת, השאלה הגדולה יותר היא כיצד ישמש האלגוריתם הזה - והאם הוא יכול לעזור בסופו של דבר לפצח את תופעת החדשות המזויפות.

התרומה של סנאפ לפרויקט (שמסתכמת ב"מתנה" של 7,000 דולר ותמיכה לא כספית נוספת) אינה מבטיחה שהחברה תאמץ את הטכנולוגיה במוצר מסחרי. אבל Papalexakis אמר שהוא מקווה שהמחקר בסופו של דבר "יוביל להעברה טכנולוגית כלשהי לפלטפורמה".

המטרה הסופית, הוא הסביר, היא לפתח מערכת שמסוגלת לספק לכל מאמר מה שמגיע לציון מהימנות. בתיאוריה, ציון כזה יכול לשמש כדי לסנן חדשות מזויפות עוד לפני שהמשתמש יוכל להציץ בו.

זהו רעיון לא דומה למסנני דואר זבל של למידה חישובית, אשר מיישמים גם מערכת ניקוד המבוססת על גורמים כמו היחס בין תמונה לטקסט בגוף ההודעה. עם זאת, Papalexakis הציע שגישה עדיפה עשויה להיות פשוט להתריע בפני משתמשים על אלה סיפורים שציונים גבוהים בקטגוריית הזיוף האפשרית - "ולאחר מכן נותנים למשתמש להחליט מה לעשות איתם זה."

סיבה אחת טובה לכך היא העובדה שהחדשות לא תמיד מתחלקות בצורה כל כך מסודרת לספאם לעומת. קטגוריות חזיר, כפי שעושה דואר אלקטרוני. בטח, מאמרים מסוימים עשויים להיות בדיה גלויה, אבל אחרים עשויים להיות מפוקפקים יותר: לא מציגים שקרים ישירים, אבל בכל זאת נועדו להוביל את הקורא לכיוון מסוים אחד. הסרת מאמרים אלה, גם כאשר אנו עשויים למצוא דעות מתנגשות עם המאמרים שלנו, נכנסת לטריטוריה דביקה יותר.

"זה נופל לאזור אפור," המשיך Papalexakis. "זה בסדר אם נוכל לקטלג את זה כמאמר מוטה מאוד. ישנן קטגוריות שונות למה שאנו עשויים לכנות מידע מוטעה. [מאמר מוטה מאוד] אולי לא רע כמו מאמר שקרי ישר, אבל הוא עדיין מוכר נקודת מבט מסוימת לקורא. זה יותר ניואנס מאשר מזויף לעומת מזויף. לא מזוייף."

בסופו של דבר, למרות הרצון של Papalexakis להמציא מערכת שמשתמשת בפיקוח קטן כמו אפשרי, הוא מכיר בכך שזהו אתגר שיצטרך לכלול גם בני אדם וגם מכונות.

"אני רואה בזה משחק חתול ועכבר מנקודת מבט טכנולוגית", אמר. "אני לא חושב שלומר 'לפתור את זה' זו הדרך הנכונה להסתכל על זה. לספק לאנשים כלי שיכול לעזור להם להבין דברים מסוימים על מאמר הוא חלק מהפתרון. הפתרון הזה יהיה כלים שיכולים לעזור לך לשפוט דברים בעצמך, להישאר משכיל כאזרח פעיל, להבין דברים ולקרוא בין השורות. אני לא חושב שאפשר ליישם פתרון טכנולוגי בלבד לבעיה הזו, כי כל כך הרבה מזה תלוי באנשים ובאופן שבו הם רואים את הדברים".

המלצות עורכים

  • האלגוריתם מתעלה על בני אדם באיתור חדשות מזויפות