В светлината на скорошните смъртоносни стрелби в училище в Съединените щати, преподаватели, родители и експерти по сигурността търсят технологии, за да помогнат за разрешаването на проблема. На преден план е използването на изкуствен интелект.
Съдържание
- Използване на AI за търсене на улики
- Повишената безопасност означава ли по-малко поверителност?
- AI е инструмент, а не решение
„Нашата цел е да гарантираме, че едно дете никога не иска да носи оръжие в училище“, Сузи Лофлин, съосновател и главен съвет на огнена буря, фирма за управление на кризи, каза. За тази цел, в партньорство с Училището за продължаващо обучение на Университета на Алабама, компанията има разработи програма за превенция, която търси ранни предупредителни знаци при деца, които може да са изложени на риск от извършване на бъдещи насилствени действия.
Наречена BERTHA, за Програмата за оценка на заплахите от поведенчески риск, идеята израства от масовата стрелба през 2007 г. във Virginia Tech, когато 32 души бяха убити - една от най-смъртоносните в историята на САЩ. Стрелбата през февруари в гимназията Marjory Stoneman Douglas в Паркланд, Флорида, която уби 17 души, донесе още внимание към проблема, подчертан отново през май, от стрелбата в гимназията в Санта Фе в Тексас, където 10 ученици и учители бяха убити.
Свързани
- Емоционален ИИ е тук и може да бъде на следващото ви интервю за работа
- ИИ асистентите на учителите биха могли да помогнат за запълването на празнините, създадени от виртуалните класни стаи
- Списъкът с клиенти на Clearview AI беше откраднат. Може ли неговата масивна база данни с лица да бъде следващата?
Жертви на стрелба в училище от 1989 г, Източник: Майка Джоунс
Инцидент | Смъртни случаи | Ранен | Общо жертви | година |
Стрелба в гимназия Санта Фе (Санта Фе, Тексас) | 10 | 13 | 23 | 2018 |
Стрелба в гимназия Марджъри Стоунман Дъглас (Паркленд, Флорида) | 17 | 14 | 31 | 2018 |
Стрелба в Umpqua Community College (Роузбърг, Орегон) | 9 | 9 | 18 | 2015 |
Стрелба в гимназия Marysville-Pilchuck (Мерисвил, Вашингтон) | 5 | 1 | 6 | 2014 |
Масово убийство в Исла Виста (Санта Барбара, Калифорния) | 6 | 13 | 19 | 2014 |
Елементарно клане в Санди Хук (Нютаун, Кънектикът) | 27 | 2 | 29 | 2012 |
Убийства в университета Ойкос (Оукланд, Калифорния) | 7 | 3 | 10 | 2012 |
Стрелба в университета на Северен Илинойс (Декалб, Илинойс) | 5 | 21 | 26 | 2008 |
Клането във Virginia Tech (Блексбърг, Вирджиния) | 32 | 23 | 55 | 2007 |
Стрелба в училище на амишите (окръг Ланкастър, Пенсилвания) | 6 | 5 | 11 | 2006 |
Клането в Ред Лейк (Ред Лейк, Минесота) | 10 | 5 | 15 | 2005 |
Клането в гимназията Columbine (Литълтън, Колорадо) | 13 | 24 | 37 | 1999 |
Стрелба в гимназия Thurston (Спрингфийлд, Орегон) | 4 | 25 | 29 | 1998 |
Убийства в средното училище в Уестсайд (Джоунсбъро, Арканзас) | 5 | 10 | 15 | 1998 |
Стрелба в гимназия Линдхърст (Оливхърст, Калифорния) | 4 | 10 | 14 | 1992 |
Стрелба в Университета на Айова (Айова Сити, Айова) | 6 | 1 | 7 | 1991 |
Стрелба в училищния двор на Стоктън (Стоктън, Калифорния) | 6 | 29 | 35 | 1989 |
Програмата за оценка на риска е замислена като предпазна мрежа за улавяне на деца, които може да се нуждаят от помощ и намеса, преди да станат склонни към самоубийство или насилие. Както беше показано след всеки предишен инцидент, администратори, родители и ученици се чудят защо ранните предупредителни знаци - като кибертормоз, намеци за оръжия и препратки към стрелбата в Columbine High School в Колорадо през 1999 г. - не бяха забелязани по-рано.
Използване на AI за търсене на улики
Предизвикателството беше трудността да се пресеят планините от данни, генерирани във форуми и социални мрежи медийни акаунти, за да намерите няколкото игли, които биха могли да предупредят училищен съветник или психолог, че детето е в неприятности. Така че, за да филтрират такива улики онлайн, администраторите използват инструменти за изкуствен интелект.
„Нашата цел е да гарантираме, че едно дете никога не иска да носи оръжие в училище.“
„Ние сме AI компонентът“, обясни Мина Лукс, основател и главен изпълнителен директор на базираната в Ню Йорк Meelo Logic. Нейната компания работи по програмата BERTHA с Firestorm, за да извърши първоначалната тежка работа по сортиране на това, което стана известно като големи данни. „Нашият фокус е автоматизацията на знанието за разбиране на контекста.“
Софтуерът на Meelo може да проследи коментарите и публикациите до техния оригинален източник. Компанията нарича процеса причинно-следствено разсъждение, но това е по-аналогично на намирането на нулев пациент, първоначалния индивид, за когото някой друг може да е изразил загриженост.
„Обикновено има първоначален изблик онлайн и те нарочно го правят публично достояние – може да е зов за помощ“, обясни Харт Браун, главен оперативен директор на Firestorm. „И в 80 процента от случаите поне още един човек знае, така че дори първата публикация да е частна, има вероятност някой друг да я направи публична.“
Програмата AI осигурява първоначален скрининг, базиран на използвани жаргонни термини, контекст, местоположение и свързани връзки. След това таблото за управление BERTHA на Firestorm маркира активност за възможна намеса. Това е мястото, където хората - съветници, учители, психолози - се намесват, за да преценят дали има реална заплаха, дали детето се нуждае от допълнително внимание, защото проявява гняв или суицидни тенденции, или ако дейността е доброкачествен.
Предизвикателството беше трудността да се пресеят планините от данни, генерирани във форуми и социални медии.
„Но никой не носи отговорност за вземането на решение“, каза Бренда Трулав, програмен администратор в университета от Алабама, който работи с Firestorm по програмата и свързаната програма за електронно обучение за преподаватели в цялата страна. „Един човек може да пропусне нещо, така че екип от хора решава какво да прави.“
Truelove отбеляза, че програмата се основава на опит от учители, съдебни психолози и други експерти за създаване на формула за справяне с потенциални кризи.
Повишената безопасност означава ли по-малко поверителност?
Докато потенциалът на AI в предотвратяване на бъдещи училищни стрелби може да бъде обещаващо, подобно проследяване и анализ на данни пораждат неизбежни опасения относно поверителността и точността и дали безопасността надделява над всякакви опасения.
Брайс Албърт, ученик от девети клас в гимназията Марджъри Стоунман Дъглас, е бил в коридора на третия етаж, когато стрелецът е започнал да стреля по учениците. Когато Албърт видял убиеца да идва по коридора, учител пуснал Алберт в класната стая и той оцелял. След това преживяване той промени мисленето си за поверителността.
„Преди си мислех, не навлизайте в моите неща“, каза Албърт пред Digital Trends относно властите, които проследяват използването му в социалните медии. „Но сега тотално промених решението си.“
Lux на Meelo подчерта, че програмите за изкуствен интелект нямат достъп до лични акаунти; цялата информация е публична. Loughlin от Firestorm подчерта факта, че те сами не събират или съхраняват данните. Поддържа се от отделните училища, които вече имат опит в воденето на досиета на учениците. (Firestorm начислява лицензионна такса от $2500 на училище, докато Университетът на Алабама предлага безплатен онлайн курс за обучение за преподаватели от Алабама K-12. Училищата могат също да работят по свои собствени проекти за ранно предупреждение безплатно, като използват основната деветстъпкова формула на Firestorm за създаване на такива програми.)
Lux признава, че тънкостите на езика, като сарказма, могат да се окажат предизвикателство за всяко изследване на ИИ. Meelo се фокусира върху текстов анализ, а не върху анализа на изображения, който другите компании за изкуствен интелект, като Кортика, проучване. Все пак има място за погрешно тълкуване дори за човешки участници.
„Трудно е да предизвикаш емоция чрез текстови съобщения“, призна Албърт.
От друга страна, една безстрастна програма не пуска фаворити или игнорира видовете емоционални или поведенчески промени, които биха могли да показват, че проблемите предстоят.
AI все още е само първоначален филтър или инструмент за спиране на бъдещи училищни стрелби.
„В крайна сметка може да бъде по-точен, като елиминира колкото се може повече пристрастия“, каза Браун от Firestorm. Служител по човешки ресурси или съветник може да минимизира емоционалните изблици на дадено лице, като например каже, че това се случва през цялото време. Немигащият компютър няма такива извинения.
„Но все пак се изисква човешко докосване, за да се проследи, да се интервюира този човек“, каза Браун. „Компютърът няма да определи дали този човек трябва да бъде изключен или се нуждае от консултация.“
AI е инструмент, а не решение
Всички експерти, с които Digital Trends разговаряха за тази история, подчертаха факта, че AI все още е само първоначален филтър или инструмент за спиране на бъдещи стрелби в училище. Може да генерира сигнали за деца в риск, но не може да каже на преподавателите как, кога или дори дали трябва да се намесят. Училищата все още се нуждаят от собствен екип от експерти - от учители, които познават учениците, до психолози - и вероятно ще продължат да се нуждаят от тях.
„Статистиката показва, че с всяка стрелба в училище, която се случи, има по-голяма вероятност да се случи друга стрелба в училище“, каза Лукс.
В крайна сметка човешкият елемент е най-важният фактор. „Говорете с хората и помолете за помощ“, каза Алберт. „Не се страхувайте да помолите за помощ.“
Препоръки на редакторите
- Прочетете зловещо красивото „синтетично писание“ на A.I. който мисли, че е Бог
- Защо обучението на роботи да играят на криеница може да бъде ключът към ИИ от следващо поколение
- ИИ може да помогне за откриване на издайнически признаци на коронавирус в рентгеновите снимки на белите дробове
- Филтриране по позитивност: Този нов ИИ може да детоксикира нишките за онлайн коментари
- Smart A.I. бодитата могат да разкрият кога бебетата развиват проблеми с подвижността