ניהול מדיה חברתית: מה יכול A.I. תפוס - ואיפה זה נכשל?

click fraud protection
הכלים הטובים ביותר לניהול מדיה חברתית לעסקים קטנים
Panithan Fakseemuang/123RF
ביקורת על דברי שטנה, קיצוניות, חדשות מזויפות ותוכן אחר שמפר את הסטנדרטים הקהילתיים בעלת רשתות המדיה החברתיות הגדולות ביותר המחזקות מדיניות, הוספת צוות ועבודה מחדש אלגוריתמים. בסדרת העבודה החברתית (נטו), אנו בוחנים את התמתנות המדיה החברתית, בוחנים מה עובד ומה לא, תוך בחינת אפשרויות לשיפור.

מ סרטון של קורבן מתאבד ביוטיוב ל מודעות המכוונות ל"שונאי יהודים", עַל פייסבוק, פלטפורמות המדיה החברתית נגועים בתוכן לא הולם שמצליח לחמוק בין הסדקים. במקרים רבים, תגובת הפלטפורמה היא ליישם אלגוריתמים חכמים יותר כדי לזהות טוב יותר תוכן לא הולם. אבל מה באמת מסוגלת בינה מלאכותית לתפוס, כמה עלינו לסמוך עליה, ואיפה היא נכשלת כישלון חרוץ?

"א.י. יכול לקלוט שפה פוגענית וזה יכול לזהות תמונות טוב מאוד. הכוח של זיהוי התמונה קיים", אומר ווינסטון בינץ', מנהל הדיגיטל הראשי של דויטש, סוכנות קריאייטיב המשתמשת ב-A.I. ביצירת קמפיינים דיגיטליים למותגים מ-Target ועד Taco Bell. "האזור האפור הופך להיות הכוונה."

א.י. יכול לקרוא גם טקסט וגם תמונות, אבל הדיוק משתנה

באמצעות עיבוד שפה טבעית, A.I. ניתן לאמן לזהות טקסט במספר שפות. תוכנית שנועדה לזהות פוסטים שמפרים את הנחיות הקהילה, למשל, יכולה ללמד לזהות השמצות גזעיות או מונחים הקשורים לתעמולה קיצונית.

מגמות לנייד google assistant ai

א.י. ניתן גם לאמן לזהות תמונות, למנוע צורות מסוימות של עירום או לזהות סמלים כמו צלב קרס. זה עובד טוב במקרים רבים, אבל זה לא חסין תקלות. לדוגמה, Google Photos ספגה ביקורת על תיוג תמונות של אנשים כהי עור עם מילת המפתח "גוֹרִילָה." שנים מאוחר יותר, גוגל עדיין לא מצאה פתרון לבעיה, במקום זאת בחרה להסיר ה היכולת של התוכנית לתייג קופים וגורילות לַחֲלוּטִין.

אלגוריתמים צריכים גם להתעדכן ככל שמשמעות המילה מתפתחת, או כדי להבין כיצד משתמשים במילה בהקשר. לדוגמה, משתמשי טוויטר להט"ב הבחינו לאחרונה בחוסר בתוצאות חיפוש עבור #gay ו-#bisexual, בין היתר, מה שגרם לחלק להרגיש שהשירות מצנזר אותם. טוויטר התנצלה על השגיאה והאשימה אותה אלגוריתם מיושן זה היה זיהוי שגוי של פוסטים שתויגו בתנאים כעלולים לפגוע. טוויטר אמרה שהאלגוריתם שלה היה אמור לשקול את המונח בהקשר של הפוסט, אך לא הצליח לעשות זאת עם מילות המפתח הללו.

א.י. הוא מוטה

כישלון תיוג הגורילות מעלה חיסרון חשוב נוסף - א.י. הוא מוטה. אתה אולי תוהה איך מחשב יכול להיות מוטה, אבל A.I. מאומן על ידי צפייה באנשים משלימים משימות, או על ידי הזנת התוצאות של משימות אלו. לדוגמה, תוכניות לזיהוי אובייקטים בתצלום מאומנות לרוב על ידי הזנת המערכת באלפי תמונות שתויגו תחילה ביד.

האלמנט האנושי הוא מה שמאפשר את A.I. לעשות משימות אבל בו זמנית נותן לזה הטיה אנושית.

האלמנט האנושי הוא מה שמאפשר את A.I. להשלים משימות שקודם לכן אי אפשר היה להשתמש בתוכנה טיפוסית, אבל אותו אלמנט אנושי גם נותן הטיה אנושית למחשב מבלי משים. א.י. התוכנית טובה רק כמו נתוני האימון - אם המערכת קיבלה בעיקר תמונות של גברים לבנים, למשל, התוכנית תתקשה לזהות אנשים בעלי גווני עור אחרים.

"חסרון אחד של A.I., באופן כללי, בכל הנוגע לניהול כל דבר, החל מהערות ועד למשתמש התוכן, הוא שהוא מטבעו דעתני על ידי התכנון", אמר PJ Ahlberg, המנהל הטכני. מנהל ה Stink Studios ניו יורק, סוכנות המשתמשת ב-A.I. ליצירת בוטים של מדיה חברתית והנחיית קמפיינים למותג.

לאחר שפותח ערכת הדרכה, הנתונים הללו משותפים לרוב בין מפתחים, מה שאומר שההטיה מתפשטת למספר תוכניות. Ahlberg אומר שגורם זה אומר שמפתחים אינם מסוגלים לשנות את מערכי הנתונים הללו בתוכניות באמצעות מספר A.I. מערכות, מה שמקשה על הסרת הטיות כלשהן לאחר גילוין.

א.י. לא יכול לקבוע כוונה

א.י. יכול לזהות צלב קרס בתצלום - אך התוכנה לא יכולה לקבוע כיצד נעשה בו שימוש. פייסבוק, למשל, התנצלה לאחרונה לאחר הסרת פוסט שהכיל צלב קרס אך לוותה בתחינה טקסטית לעצור את התפשטות השנאה.

זוהי דוגמה לכישלון של A.I. לזהות כוונה. פייסבוק אפילו תייג תמונה של הפסל של נפטון כמפורש מינית. בנוסף, אלגוריתמים עלולים לסמן בלי כוונה עבודה צילום עיתונות בגלל סמלי שנאה או אלימות שעלולים להופיע בתמונות.

תמונות היסטוריות ששותפו למטרות חינוכיות הן דוגמה נוספת - ב-2016, פייסבוק עוררה מחלוקת לאחריה הסיר את התמונה ההיסטורית של "נערת נפאלם". מספר פעמים לפני שהלחץ מצד המשתמשים אילץ את החברה לשנות את עמדתה הנוקשה לגבי עירום ולהחזיר את התמונה.

א.י. נוטה לשמש כסינון ראשוני, אך לעתים קרובות עדיין דרושים מנחים אנושיים כדי לקבוע אם התוכן אכן מפר את הסטנדרטים של הקהילה. למרות שיפורים ב-A.I., זו לא עובדה שמשתנה. פייסבוק, למשל, מגדילה את גודל צוות הביקורת שלה ל-20,000 השנה, כפול מהספירה בשנה שעברה.

א.י. עוזר לבני אדם לעבוד מהר יותר

ייתכן שעדיין נדרש מוח אנושי, אבל A.I. הפך את התהליך ליעיל יותר. א.י. יכול לעזור לקבוע אילו פוסטים דורשים בדיקה אנושית, כמו גם לעזור לתעדף פוסטים אלה. בשנת 2017, פייסבוק שיתפה את זה א.י. נועד לזהות נטיות אובדניות הביאו ל-100 פניות לגורמי חירום בחודש אחד. בזמן, פייסבוק אמר כי ה-A.I. עזר גם לקבוע אילו פוסטים רואים קודם מבקר אנושי.

חבר מודאג בפייסבוק
Getty Images/Blackzheep

Getty Images/Blackzheep

"[א.י. עברה כברת דרך והיא בהחלט מתקדמת, אבל המציאות היא שאתה עדיין מאוד צריך אלמנט אנושי לאימות שאתה משנה את המילים הנכונות, את התוכן הנכון ואת המסר הנכון", אמר כריס מלה, המנהל המנכ"ל ב-Stink אולפנים. "איפה זה מרגיש א.י. עובד הכי טוב הוא מקל על מנחים אנושיים ועוזר להם לעבוד מהר יותר ובקנה מידה גדול יותר. אני לא חושב ש-A.I. הוא קרוב להיות 100 אחוז אוטומטי בכל פלטפורמה."

א.י. הוא מהיר, אבל האתיקה איטית

טכנולוגיה, באופן כללי, נוטה לצמוח בקצב מהיר יותר ממה שהחוקים והאתיקה יכולים לעמוד בקצב - ומתינות מדיה חברתית אינה יוצאת דופן. בינץ' מציע שגורם זה יכול להיות ביקוש מוגבר לעובדים עם רקע במדעי הרוח או אתיקה, משהו שלרוב המתכנתים אין.

כפי שהוא ניסח זאת, "אנחנו נמצאים עכשיו במקום שבו הקצב, המהירות, כל כך מהירים, שאנחנו צריכים לוודא שהמרכיב האתי לא ייגרר יותר מדי מאחור".

המלצות עורכים

  • כאשר זכויות יוצרים מקשות על מציאת פסקול וידאו, ה-A.I. מוזיקאי יכול לעזור
  • מ-8K ל-A.I., זה מה שעשוי להגיע למצלמות ב-2019
  • בקרוב המחשבים יעלו עלינו. האם זה גורם ל-A.I. מרד בלתי נמנע?