לאור הירי הקטלני לאחרונה בבתי ספר בארצות הברית, מחנכים, הורים ומומחי אבטחה מחפשים טכנולוגיה שתעזור לפתור את הבעיה. בחזית עומד השימוש ב בינה מלאכותית.
תוכן
- שימוש בבינה מלאכותית לחיפוש רמזים
- האם בטיחות מוגברת פירושה פחות פרטיות?
- AI הוא כלי, לא פתרון
"המטרה שלנו היא לוודא שילד לעולם לא ירצה להביא אקדח לבית הספר", סוזי לוגלין, מייסדת שותפה והמועצה הראשית של סופת אש, חברה לניהול משברים, אמר. לשם כך, בשיתוף עם בית הספר לחינוך מתמשך של אוניברסיטת אלבמה, יש לחברה פיתחה תוכנית מניעה שמחפשת סימני אזהרה מוקדמים בילדים שעלולים להיות בסיכון להתחייב בעתיד מעשים אלימים.
המכונה BERTHA, עבור התוכנית להערכת סיכונים התנהגותיים, הרעיון צמח בעקבות הירי ההמוני ב-2007 בווירג'יניה טק כאשר 32 אנשים נרצחו - אחד הקטלניים ביותר בהיסטוריה של ארה"ב. הירי בפברואר בבית הספר התיכון מרג'ורי סטונמן דאגלס בפארקלנד, פלורידה, שגרם למותם של 17 בני אדם, הביא עוד תשומת לב לנושא, שהודגשה שוב במאי, על ידי הירי בתיכון סנטה פה בטקסס שבו 10 תלמידים ומורים נהרגו.
קָשׁוּר
- חישת רגשות א.י. נמצא כאן, וזה יכול להיות בראיון העבודה הבא שלך
- א.י. עוזרי הוראה יכולים לעזור למלא את הפערים שנוצרו על ידי כיתות וירטואליות
- רשימת הלקוחות של Clearview AI נגנבה. האם מסד הנתונים האדיר של הפנים שלו יכול להיות הבא?
קורבנות ירי בבית ספר מאז 1989, מקור: אמא ג'ונס
תַקרִית | הרוגים | נִפגָע | סך כל הקורבנות | שָׁנָה |
ירי בתיכון סנטה פה (סנטה פה, טקסס) | 10 | 13 | 23 | 2018 |
ירי בתיכון מרג'ורי סטונמן דאגלס (פארקלנד, פלורידה) | 17 | 14 | 31 | 2018 |
ירי מכללת Umpqua Community (רוזבורג, אורגון) | 9 | 9 | 18 | 2015 |
ירי בתיכון מריסוויל-פילצ'אק (מריסוויל, וושינגטון) | 5 | 1 | 6 | 2014 |
רצח המוני באיסלה ויסטה (סנטה ברברה, קליפורניה) | 6 | 13 | 19 | 2014 |
טבח סנדי הוק יסודי (ניו טאון, קונטיקט) | 27 | 2 | 29 | 2012 |
רציחות באוניברסיטת אויקוס (אוקלנד, קליפורניה) | 7 | 3 | 10 | 2012 |
ירי באוניברסיטת צפון אילינוי (דקאלב, אילינוי) | 5 | 21 | 26 | 2008 |
טבח וירג'יניה טק (בלקסבורג, וירג'יניה) | 32 | 23 | 55 | 2007 |
ירי בבית ספר אמיש (מחוז לנקסטר, פנסילבניה) | 6 | 5 | 11 | 2006 |
טבח רד לייק (אדום לייק, מינסוטה) | 10 | 5 | 15 | 2005 |
טבח בתיכון קולומביין (ליטלטון, קולורדו) | 13 | 24 | 37 | 1999 |
ירי בתיכון ת'רסטון (ספרינגפילד, אורגון) | 4 | 25 | 29 | 1998 |
רציחות בחטיבת הביניים בווסטסייד (ג'ונסבורו, ארקנסו) | 5 | 10 | 15 | 1998 |
ירי בתיכון לינדהרסט (אוליווהרסט, קליפורניה) | 4 | 10 | 14 | 1992 |
ירי באוניברסיטת איווה (איווה סיטי, איווה) | 6 | 1 | 7 | 1991 |
ירי בחצר בית הספר בסטוקטון (סטוקטון, קליפורניה) | 6 | 29 | 35 | 1989 |
תוכנית הערכת הסיכונים נתפסת כרשת ביטחון לתפוס ילדים שעלולים להזדקק לעזרה והתערבות לפני שהם הופכים לאובדניים או אלימים. כפי שהוכח לאחר כל תקרית קודמת, מנהלים, הורים ותלמידים תוהים מדוע סימני אזהרה מוקדמים - כמו בריונות ברשת, רמיזות לאקדחים והתייחסויות לירי בתיכון קולומביין בקולורדו, ב-1999 - לא הבחינו מוקדם יותר.
שימוש בבינה מלאכותית לחיפוש רמזים
האתגר היה הקושי לנפות את הררי הנתונים שנוצרו בפורומים ובחברתיים חשבונות תקשורת כדי למצוא את מעט המחטים שעשויות להזהיר יועץ בית ספר או פסיכולוג שילד נמצא בו צרה. לכן, כדי לסנן רמזים כאלה באינטרנט, מנהלי מערכת מגייסים כלי בינה מלאכותית.
"המטרה שלנו היא לוודא שילד לעולם לא ירצה להביא אקדח לבית הספר."
"אנחנו מרכיב הבינה המלאכותית", הסבירה מינה לוקס, המייסדת והמנכ"לית של Meelo Logic הניו יורקית. החברה שלה עובדת על תוכנית BERTHA עם Firestorm כדי לבצע את ההרמה הכבדה הראשונית של מיון במה שנודע בתור ביג דאטה. "ההתמקדות שלנו היא אוטומציה של ידע כדי להבין את ההקשר."
התוכנה של Meelo יכולה לעקוב אחר הערות ופרסומים למקורם המקורי. החברה מתייחסת לתהליך כהנמקה סיבתית, אבל זה דומה יותר למציאת מטופל אפס, האדם המקורי שמישהו אחר אולי הביע חשש לגביו.
"בדרך כלל, יש התפרצות ראשונית באינטרנט, והם מפרסמים את זה בכוונה ציבורית - זו עשויה להיות קריאה לעזרה", הסביר הארט בראון, ה-COO של Firestorm. "וב-80 אחוז מהמקרים, לפחות אדם אחד אחר יודע, כך שגם אם הפוסט הראשון הוא פרטי, סביר שמישהו אחר יפרסם אותו ברבים".
תוכנית הבינה המלאכותית מספקת את המיון הראשוני, בהתבסס על מונחי סלנג בשימוש, הקשר, מיקום וקישורים קשורים. לאחר מכן, לוח המחוונים של BERTHA של Firestorm מסמן פעילות להתערבות אפשרית. זה המקום שבו אנשים - יועצים, מורים, פסיכולוגים - נכנסים כדי להעריך אם יש איום אמיתי, האם ילד זקוק לתשומת לב נוספת כי הוא מפגין כעס או נטיות אובדניות, או אם הפעילות היא שָׁפִיר.
האתגר היה הקושי לנפות את הררי הנתונים שנוצרו בפורומים ובמדיה החברתית.
"אבל אף אדם לא אחראי לקבל את ההחלטה", אמרה ברנדה טרולוב, מנהלת תוכנית באוניברסיטה של אלבמה שעבד עם Firestorm על התוכנית ותוכנית e-learning קשורה למחנכים בפריסה ארצית. "אדם אחד עלול להחמיץ משהו, אז זה צוות של אנשים שמחליט מה לעשות."
Truelove ציינה כי התוכנית מבוססת על ניסיון של מורים, פסיכולוגים משפטיים ומומחים אחרים כדי ליצור נוסחה להתמודדות עם משברים פוטנציאליים.
האם בטיחות מוגברת פירושה פחות פרטיות?
בעוד הפוטנציאל של AI ב מניעת ירי עתידי בבית הספר עשוי להיות מבטיח, מעקב וניתוח נתונים כאלה מעוררים חששות בלתי נמנעים לגבי פרטיות ודיוק, והאם הבטיחות גוברת על חששות כלשהם.
ברייס אלברט, תלמידת כיתה ט' בתיכון מרג'ורי סטונמן דאגלס, הייתה במסדרון בקומה השלישית כשהיורה החל לירות לעבר תלמידים. כשאלברט ראה את הרוצח מגיע במסדרון, מורה הכניסה את אלברט לכיתה והוא שרד. מאז החוויה ההיא, הוא עבר שינוי מחשבה על פרטיות.
"לפני כן, הייתי כאילו, אל תיכנס לדברים שלי", אמר אלברט ל-Digital Trends, על הרשויות שעוקבות אחר השימוש שלו במדיה החברתית. "אבל עכשיו, שיניתי לגמרי את דעתי."
Meelo's Lux הדגיש כי תוכניות ה-AI אינן ניגשות לחשבונות פרטיים כלשהם; כל המידע הוא ציבורי. Loughlin של Firestorm הדגיש את העובדה שהם לא אוספים או מאחסנים את הנתונים בעצמם. זה מתוחזק על ידי בתי הספר הבודדים, שכבר יש להם ניסיון בשמירת רישומי תלמידים. (Firestorm גובה דמי רישיון של $2,500 לכל בית ספר, בעוד שאוניברסיטת אלבמה מציעה קורס הכשרה מקוון בחינם למחנכים של אלבמה K-12. בתי ספר יכולים גם לעבוד על פרויקטי אזהרה מוקדמים משלהם בחינם על ידי שימוש בנוסחה הבסיסית בת תשעת השלבים של Firestorm להקמת תוכניות כאלה.)
לוקס מכיר בכך שדקויות השפה, כמו ציניות, יכולות להוכיח אתגרים עבור כל מחקר בינה מלאכותית. Meelo מתמקדת בניתוח טקסטואלי, במקום בסוג של ניתוח תמונה של חברות בינה מלאכותיות אחרות, כמו קורטיקה, לימוד. ובכל זאת, יש מקום לפרשנות שגויה אפילו עבור משתתפים אנושיים.
"קשה לקבל רגשות באמצעות הודעות טקסט", הודה אלברט.
מצד שני, תוכנית חסרת תשוקה אינה משחקת מועדפים או מתעלמת מסוגי השינויים הרגשיים או ההתנהגותיים שעלולים להצביע על כך שהצרות עוד לפנינו.
בינה מלאכותית היא עדיין רק מסנן ראשוני או כלי לעצור ירי עתידי בבית הספר.
"בסופו של דבר, זה יכול להיות מדויק יותר על ידי ביטול כמה שיותר הטיה", אמר בראון של Firestorm. איש משאבי אנוש או יועץ עשויים למזער את ההתפרצויות הרגשיות של אדם, למשל, ואומר שזה קורה כל הזמן. המחשב שלא ממצמץ אינו נותן תירוצים כאלה.
"אבל זה עדיין דורש מגע אנושי כדי להמשיך, לראיין את האדם הזה", אמר בראון. "המחשב לא יקבע אם צריך לגרש את האדם הזה או שהוא זקוק לייעוץ."
AI הוא כלי, לא פתרון
כל המומחים עימם דיברתי Digital Trends לסיפור זה הדגישו את העובדה שבינה מלאכותית היא עדיין רק מסנן ראשוני או כלי לעצירת ירי עתידיים בבתי ספר. זה יכול ליצור התראות על ילדים בסיכון, אבל זה לא יכול להגיד למחנכים איך, מתי ואפילו אם עליהם להתערב. בתי ספר עדיין זקוקים לצוות מומחים משלהם - ממורים שמכירים את התלמידים ועד פסיכולוגים - וסביר להניח שימשיכו להזדקק להם.
"הסטטיסטיקה מראה שבכל ירי בבית ספר שקורה, יש סבירות גבוהה יותר שיתרחש ירי נוסף בבית ספר", אמר לוקס.
בסופו של דבר, האלמנט האנושי הוא הגורם החשוב ביותר. "דבר עם אנשים ובקש עזרה," אמר אלברט. "אל תפחד לבקש עזרה."
המלצות עורכים
- קרא את 'הכתב הסינטטי' היפה להחריד של א.י. שחושב שזה אלוהים
- מדוע ללמד רובוטים לשחק מחבואים יכול להיות המפתח ל-A.I מהדור הבא.
- א.י. יכול לעזור לזהות סימנים מובהקים של וירוס קורונה בקרני רנטגן של הריאות
- סינון לפי חיוביות: A.I. יכול לנקות את שרשורי התגובות באינטרנט
- Smart A.I. בגדי גוף יכולים לחשוף מתי תינוקות מפתחים בעיות ניידות