דמיינו לעצמכם סרט מפותל על פושע אדון הנעול במלחמת שכל עם הבלש הגדול בעולם.
תוכן
- בעיית הזיוף העמוק
- מטעה את הגלאים
- משחק של חתול ועכבר מזויף עמוק
הפושע מבקש להפיק טריק אמון עצום, תוך שימוש בכוח יד מומחה וביכולת מוזרה להתחפש למעשה לכל אחד על פני כדור הארץ. הוא כל כך טוב במה שהוא עושה שהוא יכול לגרום לאנשים להאמין שהם ראו דברים שמעולם לא קרו בפועל.
סרטונים מומלצים
אבל אז אנחנו פוגשים את הבלש. היא מבריקה, מעצור בשום דבר שיכולה לזהות את ה"לספר" של כל גנב. היא יודעת בדיוק מה לחפש, ואפילו ההתנהגות הקטנה ביותר - גבה מורמת כאן, תנועה שנפלה שם - מספיקה כדי להתריע כשמשהו לא בסדר. היא האדם היחיד שאי פעם תפס את האנטגוניסט שלנו, ועכשיו היא שוב על עקבותיו.
קָשׁוּר
- פרסי Tech For Change של Digital Trends CES 2023
- Meta רוצה להטעין את ויקיפדיה בשדרוג AI
- איך נדע מתי בינה מלאכותית באמת הופכת לחושית?
עם זאת, יש בעיה: הגנב שלנו יודע את זה היא יודע מה לחפש. כתוצאה מכך, הוא שינה את המשחק שלו, מבלי שהגיבור הבין זאת.
בעיית הזיוף העמוק
זהו, בעצם, הסיפור של זיופים עמוקים וזיהוי זיופים עמוקים עד כה. Deepfakes, סוג של מדיה סינתטית שבה ניתן לשנות את הדמיון של אנשים בצורה דיגיטלית כמו
נאבקת מול גרסה מחודשת בבימויו של A.I. חוקרים, היו סיבה לדאגה מאז שעלו למקום ב-2017. בעוד שזיופים עמוקים רבים הם קלילים (החלפה ארני עבור סליי סטאלון המחסל), הם גם מהווים איום פוטנציאלי. בזיופים עמוקים נעשה שימוש ליצירת סרטונים פורנוגרפיים מזויפים שנראים אמיתיים, והם שימשו במתיחות פוליטיות, כמו גם בהונאות פיננסיות.שמא מתיחות כאלה יהפכו לבעיה גדולה עוד יותר, מישהו צריך להיות מסוגל להיכנס ולומר, באופן סופי, מתי נעשה שימוש בזיוף עמוק ומתי לא.
"גלאי זיוף עמוק פועלים על ידי חיפוש אחר הפרטים האלה של זיוף עמוק שאינם ממש נכונים על ידי סריקת תמונות לא רק עמקים מוזרים, אלא המהמורת המזעזעת הקטנה ביותר."
לא לקח הרבה זמן עד שהגלאי הזיוף העמוק הראשון הופיעו. עד אפריל 2018, כיסיתי אחד המאמצים הקודמים לעשות זאת, שנבנה על ידי חוקרים מהאוניברסיטה הטכנית של מינכן בגרמניה. בדיוק כמו טכנולוגיית Deepfake עצמה, היא השתמשה ב-A.I. - רק שהפעם יוצריו השתמשו בו לא כדי ליצור זיופים, אלא כדי לזהות אותם.
גלאי זיוף עמוק פועלים על ידי חיפוש אחר הפרטים האלה של זיוף עמוק שאינם כאלה דַי ממש על ידי סריקת תמונות לא רק עמקים מוזרים, אלא המהמורת המזעזעת הקטנה ביותר. הם חותכים נתוני פנים מתמונות ואז מעבירים אותם דרך רשת עצבית כדי להבין את הלגיטימיות שלהם. פרטי המתנה עשויים לכלול דברים כמו מצמוץ עיניים משוכפל גרוע.
אבל כעת חוקרים מאוניברסיטת קליפורניה בסן דייגו מצאו דרך להביס גלאי זיוף עמוק על ידי הכנסת מה שנקרא דוגמאות יריבות לתוך מסגרות וידאו. דוגמאות יריבות הן תקלה מרתקת - אך מפחידה - ב-A.I. מַטרִיצָה. הם מסוגלים לשטות אפילו במערכות הזיהוי החכמות ביותר לתוך, למשל, לחשוב שצב הוא אקדח, או אספרסו הוא בייסבול. הם עושים זאת על ידי הוספת רעש בעדינות לתמונה, כך שהוא גורם לרשת העצבית לבצע סיווג שגוי.
כמו לחשוב על רובה כזוחל מפגיז. או סרטון מזויף על סרטון אמיתי.
מטעה את הגלאים
"חל לאחרונה עלייה בשיטות ליצירת סרטוני Deep Fake מציאותיים", Paarth Neekhara, סטודנט להנדסת מחשבים באוניברסיטת קליפורניה בסן דייגו, סיפר ל-Digital Trends. "מכיוון שניתן להשתמש בסרטונים שעברו מניפולציות אלה למטרות זדוניות, היה מאמץ משמעותי בפיתוח גלאים שיכולים לזהות באופן אמין סרטונים מזויפים עמוקים. לדוגמה, פייסבוק לאחרונה השיקה את אתגר Deepfake Detection כדי להאיץ את המחקר על פיתוח גלאי זיוף עמוק. [אבל] בעוד ששיטות הזיהוי הללו יכולות להשיג דיוק של יותר מ-90% במערך נתונים של סרטונים מזויפים ואמיתיים, העבודה שלנו מראה שניתן לעקוף אותן בקלות על ידי תוקף. תוקף יכול להחדיר רעש מעוצב בקפידה, שאינו מורגש למדי לעין האנושית, לכל פריים של סרטון, כך שהוא יסווג בצורה שגויה על ידי גלאי קורבן".
תוקפים יכולים ליצור סרטונים אלו גם אם אין להם ידע ספציפי על הארכיטקטורה והפרמטרים של הגלאי. התקפות אלה גם עדיין פועלות לאחר דחיסת סרטונים, כפי שהיו עושים אילו היו משותפים באינטרנט בפלטפורמה כמו YouTube.
כאשר נבדקה, השיטה הייתה מסוגלת ביותר מ-99% להטעות את מערכות הזיהוי כאשר ניתנה גישה לדגם הגלאי. עם זאת, אפילו ברמות ההצלחה הנמוכות ביותר שלה - עבור סרטונים דחוסים שבהם לא היה ידוע מידע על דגמי הגלאים - היא עדיין ניצחה אותם ב-78.33% מהמקרים. אלו לא חדשות נהדרות.
החוקרים מסרבים לפרסם את הקוד שלהם על בסיס שעלול לעשות בו שימוש לרעה, ציין Nekhara. "הסרטונים המתנגדים שנוצרו באמצעות הקוד שלנו עלולים לעקוף גלאי זיוף עמוק אחרים שאינם נראים שנמצאים בשימוש בייצור על ידי כמה מדיה חברתית [פלטפורמות]", הסביר. "אנחנו משתפים פעולה עם צוותים שעובדים על בניית מערכות זיהוי הזיוף העמוק הללו, ומשתמשים במחקר שלנו כדי לבנות מערכות זיהוי חזקות יותר."
משחק של חתול ועכבר מזויף עמוק
זה לא סוף הסיפור, כמובן. כדי לחזור לאנלוגיה של הסרט שלנו, זה עדיין יהיה רק 20 דקות לתוך הסרט. עדיין לא הגענו למקום שבו הבלש מבין שהגנב חושב שהוא שולל אותה. או לקטע שבו הגנב מבין שהבלש יודע שהוא יודע שהיא יודעת. אוֹ.. אתה מקבל את התמונה.
משחק כזה של חתול ועכבר לגילוי זיוף עמוק, שככל הנראה יימשך ללא הגבלת זמן, ידוע לכל מי שעבד באבטחת סייבר. האקרים זדוניים מוצאים נקודות תורפה, שנחסמות על ידי מפתחים, לפני שהאקרים מוצאים נקודות תורפה בגרסה המתוקנת שלהם, אשר לאחר מכן מטופלת שוב על ידי המפתחים. המשך עד אין סוף.
"כן, מערכות היצירה והזיהוי של Deepfake עוקבות מקרוב אחר הדינמיקה של הווירוס והאנטי-וירוס," שחזין חוסיין, דוקטור להנדסת מחשבים באוניברסיטת קליפורניה בסן דייגו. סטודנט, אמר ל-Digital Trends. "כרגע, גלאי זיוף עמוק מאומנים על מערך נתונים של סרטונים אמיתיים ומזויפים שנוצרו באמצעות טכניקות קיימות של סינתזת זיוף עמוק. אין ערובה שגלאים כאלה יהיו חסינים בפני תקלות בפני מערכות עתידיות ליצירת זיוף עמוק... כדי להתקדם במרוץ החימוש, יש לעדכן באופן קבוע את שיטות האיתור ולהתאמן בטכניקות סינתזה עמוקות של זיוף עמוק. [הם] גם צריכים להיות חזקים לדוגמאות יריבות על ידי שילוב סרטונים יריבים במהלך האימון."
א נייר המתאר את העבודה הזו, שכותרתו "Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Exemples", הוצג לאחרונה בכנס הוירטואלי WACV 2021.
המלצות עורכים
- AI הפך את Breaking Bad לאנימה - וזה מפחיד
- מדוע AI לעולם לא ישלוט בעולם
- אשליות אופטיות יכולות לעזור לנו לבנות את הדור הבא של AI
- מגע אחרון: כיצד מדענים נותנים לרובוטים חוש מישוש דמוי אנוש
- A.I אנלוגי? זה נשמע מטורף, אבל זה יכול להיות העתיד
שדרג את אורח החיים שלךמגמות דיגיטליות עוזרות לקוראים לעקוב אחר עולם הטכנולוגיה המהיר עם כל החדשות האחרונות, ביקורות מהנות על מוצרים, מאמרי מערכת מעוררי תובנות והצצות מיוחדות במינן.