אתה בטח מכיר זיופים עמוקים, ה"מדיה הסינתטית" שעברה שינוי דיגיטלי שמסוגלת לרמות אנשים לראות או לשמוע דברים שמעולם לא התרחשו בפועל. דוגמאות יריבות הן כמו זיופים עמוקים לזיהוי תמונות A.I. מערכות - ולמרות שהן לא נראות לנו אפילו מעט מוזרות, הן מסוגלות לבלבל את המכונות.
תוכן
- להדוף התקפות יריבות
- עוד עבודה לפנייה
לפני מספר שניםחוקרים במעבדת מדעי המחשב והבינה המלאכותית של המכון הטכנולוגי של מסצ'וסטס (CSAIL) מצאו כי הם יכולים לשטות אפילו אלגוריתמים מתוחכמים של זיהוי תמונה לבלבל אובייקטים פשוט על ידי שינוי קל של פני השטח שלהם מרקם. גם אלה לא היו ערבובים קלים.
בהדגמת החוקרים, הם הראו שאפשר לגרום לרשת עצבית מתקדמת להסתכל על צב מודפס בתלת מימד ולראות רובה במקום זאת. או להביט בבייסבול ולהגיע למסקנה שזה אספרסו. אילו אגנוזיה חזותית כזו באה לידי ביטוי באדם, זה יהיה סוג של מחקר מקרה נוירולוגי שימצא את דרכו לספר כמו הקלאסיקה של אוליבר סאקס האיש שחשב את אשתו ככובע.
סרטונים מומלצים
דוגמאות יריבות מייצגות פגיעות מרתקת בכל הנוגע לאופן שבו A.I חזותי. מערכות רואות את העולם. אבל הם גם, כפי שניתן לצפות מפגם שמבלבל צב צעצוע חדש עם רובה, מייצגים פגם שעלול להדאיג. זה אחד שחוקרים גילו נואשות איך לתקן.
כעת, קבוצה נוספת של חוקרים מ-MIT המציאה מערכת חדשה שיכולה לעזור להתחמק מתשומות "יריבות". תוך כדי כך, הם דמיינו מקרה שימוש מפחיד למען האמת עבור דוגמאות יריבות, כזה שיכול, אם ייושם על ידי האקרים, לשמש להשפעה קטלנית.
התרחיש הוא כזה: מכוניות אוטונומיות משתפרות יותר ויותר בתפיסת העולם הסובב אותן. אבל מה אם פתאום, המצלמות המובנות במכונית המבוססות על קלט חזותי היו בכוונה או בטעות ללא יכולת לזהות מה עומד לפניהן? סיווג שגוי של חפץ על הכביש - כמו אי זיהוי והצבה נכונה של הולך רגל - עלול להסתיים רע מאוד מאוד.
להדוף התקפות יריבות
"הקבוצה שלנו עובדת בממשק של למידה עמוקה, רובוטיקה ותורת הבקרה כבר כמה שנים - כולל לעבוד על שימוש ב-RL עמוק [למידת חיזוק] כדי לאמן רובוטים לנווט באופן מודע חברתית סביב הולכי רגל." מייקל אוורט, חוקר פוסט-דוקטורט במחלקה לאווירונאוטיקה ואסטרונאוטיקה של MIT, סיפר ל-Digital Trends. "כשחשבנו כיצד להביא את הרעיונות הללו לכלי רכב גדולים ומהירים יותר, שאלות הבטיחות והחוסן הפכו לאתגר הגדול ביותר. ראינו הזדמנות מצוינת ללמוד בעיה זו בלמידה עמוקה מנקודת המבט של שליטה חזקה ואופטימיזציה חזקה."
תכנון תנועה בעל מודעות חברתית עם למידת חיזוק עמוק
למידת חיזוק היא גישה המבוססת על ניסוי וטעייה ללמידת מכונה, אשר, כידוע, שימשה חוקרים כדי לגרום למחשבים ללמוד לשחק משחקי וידאו מבלי שילמדו במפורש איך. למידת החיזוק החדש של הצוות והאלגוריתם המבוסס על רשתות עצביות עמוקות נקרא CARRL, קיצור של Certified Adversarial Robustness for Deep Reinforcement Learning. בעצם, זה א רשת נוירונים עם מנה נוספת של ספקנות בכל הנוגע למה שהוא רואה.
בהדגמה אחת של עבודתם, שנתמכה על ידי חברת Ford Motor Company, החוקרים בנו אלגוריתם למידת חיזוק המסוגל לשחק את המשחק הקלאסי Atari פונג. אבל, בניגוד לשחקני משחקי RL קודמים, בגרסתם, הם הפעילו מתקפה יריבה שזרקה את ה-A.I. הערכת הסוכן לגבי מיקום הכדור של המשחק, מה שגורם לו לחשוב שהוא נמוך בכמה פיקסלים ממה שהוא בפועל היה. בדרך כלל, זה יציב את ה-A.I. שחקן בחסרון גדול, מה שגורם לו להפסיד שוב ושוב ליריב המחשב. במקרה זה, לעומת זאת, סוכן RL חושב על כל מקומות הכדור הָיָה יָכוֹל להיות, ואז למקם את ההנעה במקום שבו היא לא תחמיץ ללא קשר לשינוי המיקום.
"קטגוריה חדשה זו של אלגוריתמי למידה עמוקה חזקים תהיה חיונית כדי להביא A.I מבטיח. טכניקות לתוך העולם האמיתי."
כמובן, המשחקים הרבה יותר פשוטים מהעולם האמיתי, כפי שאוורט מודה בקלות.
"בעולם האמיתי יש הרבה יותר אי ודאות ממשחקי וידאו, מחיישנים לא מושלמים או התקפות יריבות, שיכולות להספיק כדי להערים על למידה עמוקה מערכות לקבלת החלטות מסוכנות - [כגון] ריסוס נקודה על הכביש [שעשויה לגרום למכונית בנהיגה עצמית] לסטות לנתיב אחר", הוא הסביר. "העבודה שלנו מציגה אלגוריתם RL עמוק החזק באישור למדידות לא מושלמות. החידוש העיקרי הוא שבמקום לסמוך באופן עיוור על המדידות שלו, כפי שנעשה היום, האלגוריתם שלנו חושב דרך כל המדידות האפשריות שהיו יכולות להיעשות, ומקבלת החלטה ששוקלת את המקרה הגרוע ביותר תוֹצָאָה."
בהדגמה נוספת, הם הראו שהאלגוריתם יכול, בהקשר של נהיגה מדומה, להימנע מהתנגשויות גם כאשר החיישנים שלו מותקפים על ידי יריב שרוצה שהסוכן יתנגש. "קטגוריה חדשה זו של אלגוריתמי למידה עמוקה חזקים תהיה חיונית כדי להביא A.I מבטיח. טכניקות אל העולם האמיתי", אמר אוורט.
עוד עבודה לפנייה
זה עדיין ימים מוקדמים לעבודה הזו, ויש עוד מה שצריך לעשות. יש גם את הבעיה הפוטנציאלית שזה יכול, בתרחישים מסוימים, לגרום ל-A.I. סוכן להתנהג באופן שמרני מדי, ובכך להפוך אותו לפחות יעיל. אף על פי כן, זהו חתיכת מחקר חשובה שיכולה להיות בעלת השפעות עמוקות קדימה.
"[ישנם פרויקטי מחקר אחרים] המתמקדים בהגנה מפני [סוגים מסוימים] של דוגמה יריבות, שבהן תפקידה של הרשת העצבית היא לסווג תמונה והיא נכונה [או] לא נכונה, והסיפור מסתיים שם", אמר אוורט, כשנשאל על הצב-מול-רובה הקלאסי בְּעָיָה. "העבודה שלנו מתבססת על כמה מהרעיונות האלה, אבל מתמקדת בלמידת חיזוק, שבה הסוכן צריך לנקוט בפעולות ומקבל קצת תגמול אם הוא מצליח. אז אנחנו מסתכלים על שאלה ארוכת טווח של 'אם אני אומר שזה צב, מהן ההשלכות העתידיות של ההחלטה הזו?' ושם האלגוריתם שלנו באמת יכול לעזור. האלגוריתם שלנו יחשוב על ההשלכות העתידיות במקרה הגרוע ביותר של בחירת צב או רובה, אשר יכול להיות צעד חשוב לקראת פתרון בעיות אבטחה חשובות כאשר A.I. להחלטות של סוכנים יש טווח ארוך השפעה."
מאמר המתאר את המחקר הוא זמין לקריאה במאגר האלקטרוני לפני הדפסה arXiv.
המלצות עורכים
- A.I אנלוגי? זה נשמע מטורף, אבל זה יכול להיות העתיד
- הנה מה A.I לניתוח מגמות. חושב שזה יהיה הדבר הגדול הבא בטכנולוגיה
- לקאיליפורניה יש בעיית האפלה. האם סוללות זרימה ענקיות יכולות להיות הפתרון?
- ארכיטקטורה אלגוריתמית: האם לתת ל-A.I. לעצב לנו מבנים?
- חישת רגשות א.י. נמצא כאן, וזה יכול להיות בראיון העבודה הבא שלך