מבחן חדש נועד לזהות אפליה בתוכניות AI

מה זה גוגל דופלקס
בינה מלאכותית עדיין לא מודעת, אבל אלגוריתמים עדיין יכולים להבחין, ולפעמים מבטאים בעדינות את ההטיות הנסתרות של המתכנתים שיצרו אותם. זו בעיה גדולה ומסובכת, ככל שמערכות בינה מלאכותית משתלבות יותר בחיי היומיום.

אבל יכול להיות שיש תיקון - או לפחות דרך לפקח על אלגוריתמים ולגלות אם הם הפלו באופן לא ראוי לרעה דמוגרפיה.

סרטונים מומלצים

"כללי חיזוי שנלמדו הם לרוב מורכבים מכדי להבין."


הוצע על ידי צוות של מדעני מחשב מגוגל, אוניברסיטת שיקגו ואוניברסיטת טקסס, אוסטין, שוויון הזדמנויות בלמידה מפוקחת הגישה מנתחת את ההחלטות שתוכניות למידת מכונה מקבלות - ולא את תהליכי קבלת ההחלטות עצמם - כדי לזהות אפליה. עצם טבעם של האלגוריתמים הללו הוא לקבל החלטות בעצמם, עם ההיגיון שלהם, בקופסה שחורה מוסתרת מביקורת אנושית. ככזה, החוקרים רואים בהשגת גישה לקופסאות השחורות כמעט חסר תועלת.

"כללי חיזוי שנלמדו הם לעתים קרובות מורכבים מכדי להבין אותם", מדען המחשב ומחבר שותף באוניברסיטת שיקגו, נתן סרברו, אמר ל-Digital Trends. "אכן, כל העניין של למידת מכונה היא ללמוד באופן אוטומטי כלל טוב [סטטיסטית]... לא כזה שהתיאור שלו בהכרח הגיוני לבני אדם. בהתחשב בהשקפה זו של למידה, רצינו גם להיות מסוגלים להבטיח תחושה של אי-אפליה תוך התייחסות לכללים נלמדים כאל קופסאות שחורות".

סרברו ומחברים שותפים מוריץ הארדט של גוגל ו אריק פרייס מ-UT Austin פיתחה גישה לנתח החלטות של אלגוריתם ולוודא שהוא לא מפלה בתהליך קבלת ההחלטות. לשם כך, הם הובילו עם העיקרון נגד דעות קדומות לפיו החלטה לגבי אדם מסוים לא צריכה להתבסס רק על הדמוגרפיה של אותו אדם. במקרה של תוכנית בינה מלאכותית, החלטת האלגוריתם לגבי אדם לא אמורה לחשוף שום דבר על מינו או גזעו של אותו אדם בצורה שתהיה מפלה בצורה בלתי הולמת.

זה מבחן שלא פותר את הבעיה ישירות אבל עוזר לסמן ולמנוע תהליכים מפלים. מסיבה זו, חלק מהחוקרים נזהרים.

"למידת מכונה היא נהדרת אם אתה משתמש בה כדי למצוא את הדרך הטובה ביותר לנתב צינור נפט," נואל שרקי, אמר פרופסור אמריטוס לרובוטיקה ובינה מלאכותית באוניברסיטת שפילד האפוטרופוס. "עד שנדע יותר על האופן שבו הטיות עובדות בהן, הייתי מודאג מאוד מכך שהם יעשו תחזיות שמשפיעות על חייהם של אנשים."

סרברו מכיר בחשש הזה אבל לא מחשיב זאת כביקורת גורפת על גישת הקבוצות שלו. "אני מסכים שביישומים רבים עם סיכון גבוה להשפיע על אנשים, במיוחד על ידי ממשלה ו רשויות משפט, שימוש במנבאים סטטיסטיים של קופסה שחורה אינו מתאים ושקיפות היא חיונית". הוא אמר. "במצבים אחרים, כאשר משתמשים בהם על ידי גופים מסחריים וכאשר הימורים בודדים נמוכים יותר, מנבאים סטטיסטיים של קופסה שחורה עשויים להיות מתאימים ויעילים. אולי קשה לפסול אותם לחלוטין, אבל עדיין רצוי לשלוט באפליה מוגנת ספציפית".

ה מאמר על שוויון הזדמנויות בלמידה מפוקחת היה אחד מקומץ שהוצג החודש ב-Neral Information Processing Systems (NIPS) בברצלונה, ספרד, שהציע גישות לאיתור אפליה באלגוריתמים, לפי האפוטרופוס.

המלצות עורכים

  • Google Bard עשוי להפוך בקרוב למאמן חיי הבינה המלאכותית החדש שלך
  • חברת הבינה המלאכותית החדשה של אילון מאסק שואפת "להבין את היקום"
  • כל האינטרנט שייך כעת ל-AI של גוגל
  • גוגל אומרת לעובדים להיזהר מצ'טבוטים של AI
  • מה זה MusicLM? בדוק את הבינה המלאכותית של טקסט למוזיקה של גוגל

שדרג את אורח החיים שלךמגמות דיגיטליות עוזרות לקוראים לעקוב אחר עולם הטכנולוגיה המהיר עם כל החדשות האחרונות, ביקורות מהנות על מוצרים, מאמרי מערכת מעוררי תובנות והצצות מיוחדות במינן.