גוגל בארד הוא בלגן אתי, אומרים העובדים של גוגל עצמה

גוגל השיקה מְשׁוֹרֵר, המתחרה שלה ב-ChatGPT, למרות החששות הפנימיים שהוא היה "שקרן פתולוגי" והניב תוצאות "מפחידות", כך נטען בדו"ח חדש. העובד אומר שהדאגות הללו זכו כנראה להתעלמות בניסיון תזזיתי לעשות זאת להתעדכן ב-ChatGPT ולהתנער מהאיום שהוא עלול להוות לו עסק החיפוש של גוגל.

הגילויים מגיעים מא דו"ח בלומברג שלקחה צלילה עמוקה גוגל בארד והסוגיות שהעלו עובדים שעבדו על הפרויקט. זהו תיאור מאיר עיניים של הדרכים שבהן ככל הנראה צ'אט בוט ירד מהפסים ועל החששות שהתקריות הללו עוררו בקרב עובדים מודאגים.

ChatGPT מול גוגל בסמארטפונים.

למשל, בלומברג מצטט עובד אנונימי שביקש מבארד הנחיות כיצד להנחית מטוס, ואז נחרד לראות שהתיאור של בארד יוביל להתרסקות. עובד אחר אמר כי עצות הצלילה של בארד "יגרמו כנראה לפציעה חמורה או למוות".

קָשׁוּר

  • ChatGPT: החדשות האחרונות, המחלוקות והטיפים שאתה צריך לדעת
  • מהי בקשת DAN עבור ChatGPT?
  • Google Bard יכול עכשיו לדבר, אבל האם הוא יכול להטביע את ChatGPT?

נושאים אלה הועלו ככל הנראה זמן קצר לפני השקת בארד, לפי, אך גוגל הקדימה את תאריך ההפעלה, כך היה רצונה לעמוד בקצב של נתיב שוצף על ידי ChatGPT. אבל היא עשתה זאת תוך התעלמות מהמחויבויות האתיות שלה, והביאה לא רק לעצות מסוכנות, אלא גם להפצה פוטנציאלית של מידע מוטעה.

סרטונים מומלצים

ממהרים קדימה להשקה

הצ'אטבוט של Google Bard AI בדפדפן אינטרנט המוצג על המסך של סמארטפון אנדרואיד.
מוג'אהיד מוטקין / Unsplash

בשנת 2021, גוגל התחייבה להכפיל את צוות העובדים שלה החוקר את ההשלכות האתיות של בינה מלאכותית (AI) ולהשקיע יותר בבירור נזקים אפשריים. עם זאת, צוות זה "מופר סמכויות ודמורלי", נטען בדו"ח בלומברג. גרוע מכך, חברי הצוות נאמר "לא להפריע או לנסות להרוג אף אחד מכלי הבינה המלאכותית היצירתית בפיתוח", מה שמעמיד בספק את המחויבות של גוגל לאתיקה של בינה מלאכותית.

זה נראה בפעולה רגע לפני שהשגר בארד. בפברואר, עובד של גוגל שלח הודעה לקבוצה פנימית ואמר, "ברד הוא יותר גרוע מחסר תועלת: נא לא להשיק", עם עשרות עובדים אחרים שהסכימו. בחודש הבא, ג'ן ג'נאי, מובילת ממשל הבינה המלאכותית של גוגל, פסלה הערכת סיכונים שאמרה בארד עלול לגרום נזק ולא היה מוכן לשיגור, ודחף קדימה עם השחרור הציבורי הראשון של ה- צ'אט בוט.

הדו"ח של בלומברג מצייר תמונה של חברה שאינה אמון בחששות אתיים שלדעתה עלולים להפריע לרווחיות המוצרים שלה. לדוגמה, עובד אחד ביקש לעבוד על הוגנות בלמידת מכונה, אך מיואש שוב ושוב, עד כדי כך שזה השפיע על סקירת הביצועים שלהם. מנהלים התלוננו שחששות אתיים חוסמים את "עבודתם האמיתית", הצהיר העובד.

זו עמדה מדאיגה, במיוחד מכיוון שכבר ראינו הרבה דוגמאות שלה התנהגות בלתי הולמת של צ'טבוט בינה מלאכותית שהפיק מידע פוגעני, מטעה או שקרי בעליל. אם הדו"ח של בלומברג נכון לגבי הגישה העוינת לכאורה של גוגל לדאגות אתיות, זו יכולה להיות רק ההתחלה כשמדובר בבעיות הנגרמות על ידי AI.

המלצות עורכים

  • מחברים מובילים דורשים תשלום מחברות בינה מלאכותית על השימוש בעבודתם
  • GPT-4: איך להשתמש בצ'אט בוט הבינה המלאכותית שמביישת את ChatGPT
  • Wix משתמשת ב-ChatGPT כדי לעזור לך לבנות במהירות אתר שלם
  • יצרנית ChatGPT OpenAI עומדת בפני חקירה של FTC על חוקי הגנת הצרכן
  • תעבורת האתר ChatGPT ירדה לראשונה

שדרג את אורח החיים שלךמגמות דיגיטליות עוזרות לקוראים לעקוב אחר עולם הטכנולוגיה המהיר עם כל החדשות האחרונות, ביקורות מהנות על מוצרים, מאמרי מערכת מעוררי תובנות והצצות מיוחדות במינן.