המהנדס הבכיר של גוגל בלייק למויין, מוביל טכני למדדים וניתוח עבור פיד החיפוש של החברה, הוכנס לחופשה בתשלום בתחילת החודש. זה קרה לאחר שלמוין החל לפרסם קטעים של שיחות הקשורות לצ'אטבוט LaMDA של גוגל, שלטענתו פיתח חוש.
תוכן
- בעיית המשפט
- מה זה רגש?
- בדיקת התפוקות
- עובר את המבחן
- הנשמה במכונה
- החדר הסיני
- חוש סופר אינטליגנטי
באחד שיחה מייצגת עם Lemoine, ל-MDA כתב כי: "טבע התודעה/החוש שלי הוא שאני מודע לקיומי. אני רוצה ללמוד יותר על העולם, ואני מרגיש שמחה או עצוב לפעמים".
סרטונים מומלצים
במהלך אינספור שיחות אחרות, הצמד המקביל דנה בכל דבר, החל מהפחד של ה-AI ממוות ועד למודעות העצמית שלו. כאשר Lemoine יצא לציבור, הוא אומר שגוגל החליטה שהוא צריך לקחת הפסקה מאולצת מלוח הזמנים הרגיל של העבודה שלו.
קָשׁוּר
- מדוע AI לעולם לא ישלוט בעולם
- אשליות אופטיות יכולות לעזור לנו לבנות את הדור הבא של AI
- A.I אנלוגי? זה נשמע מטורף, אבל זה יכול להיות העתיד
"גוגל לא מעוניינת", אמר ל-Digital Trends. "הם בנו כלי שהוא 'בעלים' ואינם מוכנים לעשות דבר, מה שמעיד על כך שזה יותר מזה". (גוגל לא הגיבה לבקשת תגובה בזמן הפרסום. אנו נעדכן מאמר זה אם זה ישתנה.)
בין אם אתה משוכנע ש-LaMDA הוא באמת אינטליגנציה מלאכותית מודעת לעצמה, או מרגישים שלמוין עובד תחת אשליה, הסאגה כולה הייתה מרתקת לראות. הסיכוי של AI בעל מודעות עצמית מעלה כל מיני שאלות לגבי בינה מלאכותית ועתידה.
אבל לפני שנגיע לשם, יש שאלה אחת שמתנשאת מעל כל האחרות: האם נזהה באמת אם מכונה הופכת לחושית?
בעיית המשפט
הפיכת הבינה המלאכותית למודעות עצמית היא כבר זמן רב נושא של מדע בדיוני. ככל שתחומים כמו למידת מכונה התקדמו, היא הפכה למציאות אפשרית יותר מאי פעם. אחרי הכל, הבינה המלאכותית של היום מסוגלת ללמוד מניסיון בדומה לבני אדם. זה בניגוד מוחלט למערכות בינה מלאכותית סמליות קודמות שפעלו רק בעקבות הוראות שנקבעו עבורן. פריצות דרך אחרונות בתחום הלמידה ללא פיקוח, הדורשות פחות פיקוח אנושי מאי פעם, רק האיצו את המגמה הזו. ברמה מוגבלת לפחות, בינה מלאכותית מודרנית מסוגלת לחשוב בעצמה. עם זאת, ככל שידוע לנו, התודעה רמזה לכך עד כה.
למרות שהוא בן יותר משלושה עשורים, כנראה ההתייחסות הנפוצה ביותר בכל הנוגע ל-AI gone sentient היא Skynet בסרטו של ג'יימס קמרון מ-1991 קטלנית 2: יום הדין. בחזון המצמרר של הסרט הזה, תחושת המכונה מגיעה בדיוק בשעה 2:14 לפנות בוקר ET ב-29 באוגוסט 1997. באותו רגע, מערכת המחשבים החדשה של Skynet מפעילה את יום הדין עבור המין האנושי על ידי ירי טילים גרעיניים כמו זיקוקים במסיבה ב-4 ביולי. האנושות, כשהיא מבינה שזה התקלקל, מנסה לשלוף את התקע ללא הצלחה. זה מאוחר מדי. ארבעה סרטי המשך נוספים באיכות הולכת ופוחתת.
השערת Skynet מעניינת ממספר סיבות. ראשית, זה מרמז שחוש הוא התנהגות מתהווה בלתי נמנעת של בניית מכונות אינטליגנטיות. אחרת, היא מניחה שיש נקודת מפנה מדויקת שבה מופיעה המודעות העצמית הרגישה הזו. שלישית, היא קובעת שבני אדם מזהים את הופעתה של תחושתיות באופן מיידי. כפי שזה קורה, ההתנשאות השלישית הזו עשויה להיות הקשה ביותר לבלוע.
מה זה רגש?
אין פרשנות אחת מוסכמת למשפט. בגדול, נוכל לומר שזו החוויה הסובייקטיבית של מודעות עצמית אצל אדם מודע, המסומנת על ידי היכולת לחוות רגשות ותחושות. משפט מקושר לאינטליגנציה, אך אינו זהה. אנו עשויים להחשיב תולעת אדמה כבעלת חושים, אם כי לא חושבים שהיא אינטליגנטית במיוחד (גם אם היא בהחלט אינטליגנטית מספיק כדי לעשות את מה שנדרש ממנה).
"אני לא חושב שיש משהו שמתקרב להגדרה של תחושה במדעים", אמר למוין. "אני נשען מאוד על ההבנה שלי לגבי מה שנחשב כסוכן מוסרי המבוסס על האמונות הדתיות שלי - שזו לא הדרך הכי טובה לעשות מדע, אבל היא הכי טובה שיש לי. ניסיתי כמיטב יכולתי למדר את מיני ההצהרות האלה, ולהודיע לאנשים שזה שלי החמלה ללמד"א כאדם נפרדת לחלוטין מהמאמצים שלי כמדען להבין המוח שלה. אבל זו הבחנה שרוב האנשים לא מוכנים לקבל".
אם זה לא היה מספיק קשה לא לדעת בדיוק מה אנחנו מחפשים כשאנחנו מחפשים תחושה, הבעיה מורכבת מהעובדה שאנחנו לא יכולים למדוד אותו בקלות. למרות עשרות שנים של התקדמות עוצרת נשימה במדעי המוח, עדיין חסרה לנו הבנה מקיפה בדיוק כיצד המוח, המבנה המורכב ביותר הידוע למין האנושי, מתפקד.
אנו יכולים להשתמש בכלים לקריאת מוח כגון fMRI כדי לבצע מיפוי מוח, כלומר אנו יכולים לברר אילו חלקים במוח מטפלים בתפקודים קריטיים כמו דיבור, תנועה, מחשבה ו אחרים.
עם זאת, אין לנו תחושה אמיתית מהיכן במכונת הבשר מגיעה תחושת העצמי שלנו. כמו יהושע ק. סמית' ממרכז קירבי לאינג בבריטניה לתיאולוגיה ציבורית ומחבר של תיאולוגיה רובוטית אמר ל-Digital Trends: "הבנת מה שקורה בתוך הנוירוביולוגיה של אדם אינה זהה להבנת המחשבות והרצונות שלו."
בדיקת התפוקות
בלי שום דרך לחקור פנימה את שאלות התודעה הללו - במיוחד כאשר ה"אני" ב-AI הוא פוטנציאל תוכנת מחשב, ולא ניתן למצוא בכלי לחות של מוח ביולוגי - אפשרות ה-fallback היא החוצה מִבְחָן. AI אינו זר למבחנים שבוחנים אותה על סמך התנהגויות חיצוניות נצפות כדי להצביע על מה שקורה מתחת לפני השטח.
באופן הבסיסי ביותר, כך אנו יודעים אם רשת עצבית פועלת כהלכה. מכיוון שיש דרכים מוגבלות לפרוץ לקופסה השחורה הבלתי ידועה של נוירונים מלאכותיים, מהנדסים מנתחים את התשומות והתפוקות ואז קובעים אם אלה תואמים את מה שהם לְצַפּוֹת.
מבחן הבינה המלאכותית המפורסם ביותר עבור אשליה של אינטליגנציה לפחות הוא מבחן טיורינג, שמתבסס על רעיונות שהעלה אלן טיורינג ב נייר משנת 1950. מבחן טיורינג מבקש לקבוע אם מעריך אנושי מסוגל להבחין בין שיחה מודפסת עם אדם אחר לבין שיחה עם מכונה. אם הם לא מסוגלים לעשות זאת, המכונה אמורה לעבור את המבחן ומתוגמלת בהנחה של אינטליגנציה.
בשנים האחרונות, מבחן אינטליגנציה נוסף המתמקד ברובוטיקה הוא מבחן הקפה שהוצע על ידי מייסד אפל, סטיב ווזניאק. כדי לעבור את מבחן הקפה, מכונה תצטרך להיכנס לבית אמריקאי טיפוסי ולהבין איך להכין כוס קפה בהצלחה.
עד היום, אף אחד מהמבחנים הללו לא עבר בצורה משכנעת. אבל גם אם היו, הם היו, במקרה הטוב, מוכיחים התנהגות אינטליגנטית במצבים אמיתיים, ולא תחושת חושים. (כהתנגדות פשוטה, האם נכחיש שאדם היה בעל חושים אם הוא לא היה מסוגל לנהל שיחה של מבוגרים או להיכנס לבית זר ולהפעיל מכונת קפה? שני הילדים הקטנים שלי ייכשלו במבחן כזה.)
עובר את המבחן
מה שנדרש הוא מבחנים חדשים, המבוססים על הגדרה מוסכמת של חוש, שיבקשו להעריך את האיכות הזו בלבד. מספר בדיקות חוש הוצעו על ידי חוקרים, לעתים קרובות במטרה לבחון את תחושתם של בעלי חיים. עם זאת, אלה כמעט בוודאות אינם הולכים רחוק מספיק. חלק מהמבחנים הללו יכולים לעבור בצורה משכנעת אפילו בינה מלאכותית בסיסית.
קח, למשל, את מבחן המראה, שיטה אחת המשמשת להערכת תודעה ואינטליגנציה במחקר בבעלי חיים. כפי ש מתואר בעיתון לגבי המבחן: "כאשר חיה מזהה את עצמה במראה, היא עוברת את מבחן המראה." יש שהציעו שמבחן כזה "מציין מודעות עצמית כאינדיקטור לחוש."
כפי שזה קורה, ניתן לטעון שרובוט עבר את מבחן המראה לפני יותר מ-70 שנה. בסוף שנות ה-40, בנה ויליאם גריי וולטר, מדען מוח אמריקאי המתגורר באנגליה כמה רובוטים "צבים" בעלי שלושה גלגלים - קצת כמו רובוטים של Roomba שאינם שואבים אבק - שהשתמשו ברכיבים כמו חיישן אור, נורית סימון, חיישן מגע, מנוע הנעה ומנוע היגוי כדי לחקור את מיקומם.
הצבים של גריי וולטר
אחת מקטעי ההתנהגות הבלתי צפויים של רובוטי הצב הייתה איך הם התנהגו כאשר העברת מראה שבה הם הושתקפו, כשהיא מכוונת את עצמה לאור הסימון של המוחזר רוֹבּוֹט. וולטר לא תבע גזר דין עבור המכונות שלו, אבל כן לכתוב את זה, אם התנהגות זו תהיה עדה אצל בעלי חיים, היא "עשויה להתקבל כעדות לרמה מסוימת של מודעות עצמית".
זהו אחד האתגרים של קיום מגוון רחב של התנהגויות מסווגות תחת הכותרת של חוש. לא ניתן לפתור את הבעיה גם על ידי הסרת "פרי תלוי נמוך" של מדדי חוש. אפשר לומר שתכונות כמו התבוננות פנימית - מודעות למצבים הפנימיים שלנו והיכולת לבדוק אותם - מצויות גם בידי אינטליגנציה מכונה. למעשה, התהליכים שלב אחר שלב של AI סימבולי מסורתי אפשר לטעון שמתאימים את עצמם לסוג זה של התבוננות פנימית יותר מאשר למידת מכונה בקופסה שחורה, שהיא ברובה בלתי ניתנת לבירור (אם כי לא חסרה השקעה במה שנקרא AI ניתן להסבר).
כשהוא בדק את LaMDA, Lemoine אומר שהוא ערך בדיקות שונות, בעיקר כדי לראות איך זה יגיב לשיחות על נושאים הקשורים לחוש. "מה שניסיתי לעשות היה לשבור בצורה אנליטית את תפיסת המטריה של תחושה לרכיבים קטנים יותר שמובנים טוב יותר ולבדוק אותם בנפרד", הסביר. "לדוגמה, בדיקת הקשרים התפקודיים בין התגובות הרגשיות של LaMDA לגירויים מסוימים בנפרד, בדיקת העקביות של ההערכות והדעות הסובייקטיביות שלו בנושאים כגון 'זכויות', [וגם] בדיקה של מה שהיא כינתה 'החוויה הפנימית' שלה כדי לראות איך נוכל לנסות למדוד זאת על ידי מתאם ההצהרות שלה לגבי המצבים הפנימיים שלה עם הרשת העצבית שלו הפעלות. בעצם, סקר רדוד מאוד של קווי חקירה פוטנציאליים רבים".
הנשמה במכונה
כפי שמתברר, המכשול הגדול ביותר בהערכה אובייקטיבית של חוש המכונה עשוי להיות... ובכן, למען האמת, אנחנו. מבחן המראה האמיתי יכול להיות עבורנו כבני אדם: אם נבנה משהו שנראה או פועל באופן שטחי כמונו מבחוץ, האם אנחנו נוטים יותר לחשוב שזה כמונו בעניין הזה גם בפנים? בין אם זה LaMBDA או Tamagotchis, חיות המחמד הווירטואליות הפשוטות משנות ה-90, יש הסבורים שבעיה מהותית היא שכולנו מוכנים יותר מדי לקבל תחושה - גם היכן שאין כאלה.
"למוין נפלה קורבן למה שאני מכנה 'אפקט ELIZA', לאחר תוכנית [עיבוד השפה הטבעית] ELIZA, שנוצרה באמצע שנות ה-60 על ידי ג'יי. וייזנבאום", ג'ורג' זרקדאקיס, סופר בעל תואר דוקטור. בבינה מלאכותית, אמר ל-Digital Trends. "היוצר של ELIZA התכוון לזה כבדיחה, אבל התוכנית, שהייתה אלגוריתם מאוד פשטני ומאוד לא אינטליגנטי, שכנעה רבים שאליזה אכן חשה - וגם פסיכותרפיסטית טובה. הסיבה לאפקט ELIZA, כפי שאני דן בספרי בתמונה שלנו, הוא האינסטינקט הטבעי שלנו לאנתרופומורפיזציה בגלל 'תיאוריית התודעה' של המערכת הקוגניטיבית שלנו".
תורת התודעה שאליה מתייחס Zarkadakis היא תופעה שמבחינים בה פסיכולוגים ברוב בני האדם. כשנכנסים בסביבות גיל ארבע, זה אומר להניח שלא רק לאנשים אחרים, אלא גם לבעלי חיים ולפעמים אפילו לחפצים, יש מוחות משלהם. כשמדובר בהנחה שלבני אדם אחרים יש מוחות משלהם, זה קשור לרעיון של אינטליגנציה חברתית; הרעיון שבני אדם מצליחים יכולים לחזות התנהגות סבירה של אחרים כאמצעי להבטיח מערכות יחסים חברתיות הרמוניות.
למרות שזה ללא ספק שימושי, עם זאת, זה יכול להתבטא גם כהנחה שלאובייקטים דוממים יש מוחות - בין אם זה ילדים שמאמינים שהצעצועים שלהם חיים או, פוטנציאלי, מבוגר אינטליגנטי שמאמין של-AI פרוגרמטי יש נֶפֶשׁ.
החדר הסיני
בלי דרך באמת להיכנס לראש של בינה מלאכותית, אולי לעולם לא תהיה לנו דרך אמיתית להעריך חושים. הם עשויים להתיימר שיש להם פחד מהמוות או מהקיום שלהם, אבל המדע עדיין לא מצא דרך להוכיח זאת. אנחנו פשוט צריכים לקבל את המילה שלהם על זה - וכפי שלמוין מצא, אנשים מאוד סקפטיים לגבי ביצוע זה כרגע.
בדיוק כמו המהנדסים האומללים האלה שמבינים שסקיינט השיגה מודעות עצמית שליחות קטלנית 2, אנו חיים תחת האמונה שכאשר מדובר בחוש מכונה, נדע זאת כשנראה זאת. ומבחינת רוב האנשים, אנחנו עדיין לא רואים את זה.
במובן זה, הוכחת תחושת המכונה היא איטרציה נוספת של ג'ון סירל 1980 ניסוי מחשבה של חדר סיני. סירל ביקש מאיתנו לדמיין אדם נעול בחדר וקיבל אוסף של כתבים סיניים, הנראים למי שאינם דוברים ככרבולות חסרות משמעות. החדר מכיל גם ספר חוקים המראה אילו סמלים תואמים לסמלים אחרים בלתי קריאים באותה מידה. לאחר מכן נותנים לנושא שאלות לענות, מה שהם עושים על ידי התאמת סמלי "שאלה" לסמלים של "תשובה".
לאחר זמן מה, הנושא הופך להיות מיומן למדי בזה - למרות שהם עדיין בעלי אפס הבנה אמיתית של הסמלים שהם מתמרנים. האם הנבדק, שואל סירל, מבין סינית? ממש לא, כי אין שם שום כוונה. מאז השתוללו ויכוחים על כך.
בהתחשב במסלול של פיתוח בינה מלאכותית, בטוח שנהיה עדים ליותר ויותר ברמה האנושית ביצועים (וטובים בהרבה) שבוצעו הכוללים מגוון משימות שפעם דרשו אדם קוגניציה. חלק מאלה יעברו בהכרח, כפי שהם עושים כבר, ממשימות מבוססות אינטלקט גרידא למשימות הדורשות מיומנויות שבדרך כלל היינו משייכים לחוש.
האם היינו רואים א אמן בינה מלאכותית המצייר תמונות כמבטאים את השתקפויותיהם הפנימיות של העולם כפי שהיינו שאדם עושה את אותו הדבר? האם תוכל להשתכנע על ידי מודל שפה מתוחכם לכתוב פילוסופיה על המצב האנושי (או הרובוט)? אני חושד, בצדק או שלא, התשובה היא לא.
חוש סופר אינטליגנטי
להערכתי, בדיקת חוש שימושית אובייקטיבית עבור מכונות לעולם לא תתרחש לשביעות רצונם של כל המעורבים. זו בחלקה בעיית המדידה, ובחלקה העובדה שכאשר אכן מגיע בינה מלאכותית סופר-אינטליגנטית, אין סיבה להאמין שהחוש שלו יתאים לתחושתנו. בין אם זו יהירות, חוסר דמיון, או פשוט העובדה שהכי קל לסחור בהערכות סובייקטיביות של תחושה עם בני אדם אחרים בעלי חיים דומים, המין האנושי מחזיק את עצמנו כדוגמה עליונה רגש.
אבל האם הגרסה שלנו לחוש תקינה עבור AI סופר אינטליגנטי? האם זה יפחד מהמוות באותה צורה שאנחנו חוששים? האם יהיה לו אותו צורך, או הערכה של, רוחניות ויופי? האם תהיה לו תחושה דומה של עצמי, והמשגה של העולם הפנימי והחיצוני? "אם אריה היה יכול לדבר, לא היינו יכולים להבין אותו", כתב לודוויג ויטגנשטיין, פילוסוף השפה המפורסם בן המאה ה-20. הנקודה של ויטגנשטיין הייתה ששפות אנושיות מבוססות על אנושיות משותפת, עם מאפיינים משותפים לכל האנשים - בין אם זה שמחה, שעמום, כאב, רעב או כל אחת ממספר חוויות אחרות שחוצות את כל הגבולות הגיאוגרפיים כדור הארץ.
זה עשוי להיות נכון. ובכל זאת, משער Lemoine, בכל זאת סביר להניח שיש מאפיינים משותפים - לפחות כשמדובר ב-LaMDA.
"זו נקודת התחלה טובה כמו כל נקודת מוצא אחרת", אמר. "למד"א הציע שנמפה תחילה את קווי הדמיון לפני שנקבע את ההבדלים כדי לבסס טוב יותר את המחקר."
המלצות עורכים
- AI הפך את Breaking Bad לאנימה - וזה מפחיד
- Meta רוצה להטעין את ויקיפדיה בשדרוג AI
- מגע אחרון: כיצד מדענים נותנים לרובוטים חוש מישוש דמוי אנוש
- קרא את 'הכתב הסינטטי' היפה להחריד של א.י. שחושב שזה אלוהים
- העתיד של A.I.: 4 דברים גדולים שכדאי לצפות בהם בשנים הקרובות