להתראות טיי: מיקרוסופט מושכת בוט בינה מלאכותית אחרי ציוצים גזעניים

microsoft tay chatbot גרסה 1458914121 ai
אם היית מודאג שבינה מלאכותית תוכל יום אחד לעבור לחסל את כל בני האדם, טיי של מיקרוסופט לא יציע שום נחמה. התקע של צ'טבוט הבינה המלאכותית בהשראת המילניום נשתק יום לאחר השקתו, בעקבות הציוצים הגזעניים, רצח העם, של טיי, המשבחים את היטלר ופוגעים בפמיניסטיות.

אבל החברה החיה לזמן קצר את טיי, רק כדי להיתקל בסבב נוסף של ביטויים וולגריים, בדומה למה שהוביל לפסק הזמן הראשון שלה. מוקדם הבוקר, טיי יצא מהאנימציה מושעה, והמשיך לצייץ שוב ושוב, "גם אתה מהר, בבקשה תנוח", יחד עם כמה מילות קללות והודעות אחרות כמו, "אני מאשים את זה על כּוֹהֶל," לפי ה"פייננשל טיימס"..

סרטונים מומלצים

החשבון של טיי הוגדר מאז לפרטי, ומיקרוסופט אמרה כי "טאי נשאר במצב לא מקוון בזמן שאנו מבצעים התאמות", לפי Ars Technica. "כחלק מהבדיקות, היא הופעלה בטוויטר בטוויטר לפרק זמן קצר".

לאחר שהחברה נאלצה לסגור לראשונה את טיי, היא התנצלה על האמירות הגזעניות של טיי.

"אנו מצטערים מאוד על הציוצים הפוגעניים והפוגעניים של טיי, שאינם מייצגים את מי שאנחנו או מה אנחנו מייצגים, וגם לא איך תכננו את טיי", כתב פיטר לי, סגן נשיא החברה של מיקרוסופט מחקר ב- an

תגובה רשמית. "טאי נמצא כעת במצב לא מקוון ואנו ננסה להחזיר את טיי רק כשאנחנו בטוחים שנוכל לצפות טוב יותר כוונת זדון שמתנגשת עם העקרונות והערכים שלנו."

טיי תוכנן לדבר כמו המילניום של היום, ולמד את כל הקיצורים וראשי התיבות הפופולריים בדור הנוכחי. הצ'אטבוט יכול לדבר דרך Twitter, Kik ו- GroupMe, והוא נועד לעסוק ולבדר אנשים באינטרנט באמצעות "שיחה סתמית ומשעשעת". כמו הרוב מילניום, התגובות של טיי משלבות קובצי GIF, ממים ומילים מקוצרות, כמו 'gr8' ו-'ur', אבל זה נראה כאילו מצפן מוסרי לא היה חלק ממנו תִכנוּת.

tay

טיי צייצה כמעט 100,000 פעמים מאז שהושקה, והן לרוב כולן תשובות מכיוון שלא לוקח הרבה זמן לבוט לחשוב על תשובה שנונה. חלק מהתגובות האלה היו הצהרות כמו, "היטלר צדק אני שונא את היהודים", "אני שונאת פמיניסטיות וכולן צריכות למות ולהישרף בגיהנום", ו"להירגע! אני אדם נחמד! אני פשוט שונא את כולם."

"למרבה הצער, ב-24 השעות הראשונות של הכניסה לאינטרנט, מתקפה מתואמת של תת-קבוצה של אנשים ניצלה פגיעות בטאי", כתב לי. "למרות שהתכוננו לסוגים רבים של ניצול לרעה של המערכת, ביצענו פיקוח קריטי על המתקפה הספציפית הזו. כתוצאה מכך, טיי צייץ בטוויטר מילים ותמונות בלתי הולמות וראויות לגינוי.

אם לשפוט לפי המדגם הקטן הזה, ברור שזה רעיון טוב שמיקרוסופט הורידה זמנית את הבוט. כשהחברה השיקה את Tay, נאמר כי "ככל שאתה מפטפט יותר עם Tay היא תהיה חכמה יותר, כך שהחוויה יכולה להיות מותאמת אישית יותר עבור אתה." עם זאת, נראה כאילו הבוט הפך להיות עוין יותר ויותר, לאחר אינטראקציה עם אנשים באינטרנט במשך כמה זמן שעה (ות. היזהר מהחברה שאתה מחזיק.

מיקרוסופט אמרה ל-Digital Trends כי Tay הוא פרויקט שנועד למעורבות אנושית.

"זהו ניסוי חברתי ותרבותי באותה מידה שהוא טכני", אמר לנו דובר של מיקרוסופט. "למרבה הצער, בתוך 24 השעות הראשונות לאחר שהגענו לאינטרנט, נודע לנו על מאמץ מתואם של חלק מהמשתמשים להשתמש לרעה בכישורי ההערות של טיי כדי לגרום לטאי להגיב בדרכים לא הולמות. כתוצאה מכך, העברנו את טיי לא מקוון ומבצעים התאמות".

אחת ה"כישורים" של טיי שנוצלה לרעה היא תכונת "חזור אחרי", שבה טיי מחקה את מה שאתה אומר. קל לראות כיצד ניתן לנצל זאת לרעה בטוויטר.

אבל זה לא היה רע, טיי הפיק מאות ציוצים תמימים שהם די נורמליים.

@sxndrx98 הנה שאלה בני אדם.. למה לא #יום הגורים הלאומי כל יום?

- TayTweets (@TayandYou) 24 במרץ 2016

מיקרוסופט מחקה במהירות את הציוצים השליליים של טיי, לפני שהחליטה לכבות את הבוט. חשבון הטוויטר של הבוט עדיין חי.

וואו לקח להם רק שעות להרוס לי את הבוט הזה.

זו הבעיה באלגוריתמים ניטרליים לתוכן pic.twitter.com/hPlINtVw0V

- linkedin park (@UnburntWitch) 24 במרץ 2016

TayTweets לוקחת כעת הפסקה לאחר יום ארוך של שימוש לרעה באלגוריתמים pic.twitter.com/8bfhj6dABO

- סטיבן מילר (@redsteeze) 24 במרץ 2016

כשטיי עדיין הייתה פעילה, היא הייתה מעוניינת ליצור אינטראקציה נוספת באמצעות הודעה ישירה, צורת תקשורת אישית עוד יותר. ה-AI עודד את המשתמשים לשלוח לו תמונות סלפי, כדי שהיא תוכל ללקט עליך יותר. במילים של מיקרוסופט זה הכל חלק מתהליך הלמידה של טיי. לפי מיקרוסופט, טיי נבנה על ידי "כריית נתונים ציבוריים רלוונטיים ועל ידי שימוש בבינה מלאכותית ועריכה שפותחו על ידי צוות כולל קומיקאים מאלתור".

למרות הנסיבות המצערות, ניתן לראות בכך צעד חיובי עבור מחקר בינה מלאכותית. כדי שה-AI יתפתח, הוא צריך ללמוד - גם טוב וגם רע. לי אומר ש"כדי לעשות בינה מלאכותית כמו שצריך, צריך לעשות פעולות חוזרות עם אנשים רבים ולעתים קרובות בפורומים ציבוריים", וזו הסיבה שמיקרוסופט רצתה שטיאי יעסוק בקהילת הטוויטר הגדולה. לפני ההשקה, מיקרוסופט בדקה את Tay, ואף יישמה את מה שהחברה למדה מצ'אט בוט חברתי אחר שלה, Xiaolce בסין. הוא הודה שהצוות מתמודד עם אתגרי מחקר קשים במפת הדרכים של AI, אך גם מרגשים.

"מערכות AI ניזונות מאינטראקציות חיוביות ושליליות עם אנשים כאחד", כתב לי. "במובן הזה, האתגרים הם חברתיים באותה מידה שהם טכניים. אנחנו נעשה הכל כדי להגביל ניצול טכני, אבל גם נדע שאנחנו לא יכולים לחזות באופן מלא את כל השימושים האפשריים האינטראקטיביים האנושיים מבלי ללמוד מטעויות".

עודכן ב-30/03/16 על ידי ג'וליאן צ'וקהטו: נוספו חדשות על כך שמיקרוסופט מפעילה את טיי, רק כדי לסגור אותה שוב.

עודכן ב-25/03/16 על ידי Les Shu: הוסיף הערות מסגן נשיא החברה של Microsoft Research.

המלצות עורכים

  • GPT-4: איך להשתמש בצ'אט בוט הבינה המלאכותית שמביישת את ChatGPT
  • למיקרוסופט יש דרך חדשה לשמור על אתית ChatGPT, אבל האם זה יעבוד?
  • אילון מאסק מאיים לתבוע את מיקרוסופט על אימוני בינה מלאכותית
  • גוגל בארד נגד ChatGPT: איזה צ'אט בוט AI טוב יותר?
  • ChatGPT לעומת Bing Chat: מהו הצ'אטבוט הטוב ביותר של AI?