Jak sztuczna inteligencja może zbierać wskazówki, aby zapobiec przyszłym strzelaninom w szkołach

W świetle niedawnych śmiertelnych strzelanin w szkołach w Stanach Zjednoczonych nauczyciele, rodzice i eksperci ds. bezpieczeństwa poszukują technologii, która pomoże rozwiązać ten problem. Na pierwszym planie jest wykorzystanie sztuczna inteligencja.

Zawartość

  • Używanie sztucznej inteligencji do wyszukiwania wskazówek
  • Czy większe bezpieczeństwo oznacza mniej prywatności?
  • Sztuczna inteligencja to narzędzie, a nie rozwiązanie

„Naszym celem jest upewnienie się, że dziecko nigdy nie będzie chciało przynosić broni do szkoły” – Suzy Loughlin, współzałożycielka i główna rada firmy Burza Ognia– stwierdziła firma zajmująca się zarządzaniem kryzysowym. W tym celu firma podjęła współpracę ze Szkołą Kształcenia Ustawicznego Uniwersytetu Alabama opracowali program profilaktyczny, który szuka wczesnych sygnałów ostrzegawczych u dzieci, które mogą być narażone na ryzyko popełnienia przestępstwa w przyszłości akty przemocy.

Pomysł, nazwany BERTHA, w ramach Programu oceny ryzyka behawioralnego, zrodził się w wyniku masowej strzelaniny w Virginia Tech w 2007 roku, kiedy zamordowano 32 osoby – była to jedna z najbardziej śmiercionośnych ofiar w historii Stanów Zjednoczonych. Lutowa strzelanina w szkole średniej Marjory Stoneman Douglas w Parkland na Florydzie, w której zginęło 17 osób, przyniosła więcej zwrócono uwagę na tę kwestię, co zostało ponownie podkreślone w maju podczas strzelaniny w szkole średniej w Santa Fe w Teksasie, w której zginęło 10 uczniów i nauczycieli zostali zabici.

Powiązany

  • Sztuczna inteligencja wyczuwająca emocje już tu jest i może pojawić się podczas Twojej następnej rozmowy kwalifikacyjnej
  • sztuczna inteligencja asystenci nauczycieli mogliby pomóc w wypełnieniu luk powstałych w wyniku wirtualnych klas
  • Lista klientów Clearview AI została skradziona. Czy jego ogromna baza danych twarzy będzie następna?

Ofiary strzelaniny w szkole od 1989 r, Źródło: Matka Jones

Incydent Ofiary śmiertelne Ranny Całkowita liczba ofiar Rok
Strzelanina w szkole średniej w Santa Fe (Santa Fe, Teksas) 10 13 23 2018
Strzelanina w szkole średniej Marjory Stoneman Douglas (Parkland, Floryda) 17 14 31 2018
Strzelanina w Umpqua Community College (Roseburg, Oregon) 9 9 18 2015
Strzelanina w szkole średniej Marysville-Pilchuck (Marysville, Waszyngton) 5 1 6 2014
Masowe morderstwo w Isla Vista (Santa Barbara, Kalifornia) 6 13 19 2014
Masakra w Sandy Hook w szkole podstawowej (Newtown, Connecticut) 27 2 29 2012
Zabójstwa na Uniwersytecie Oikos (Oakland, Kalifornia) 7 3 10 2012
Strzelanina na Uniwersytecie Północnego Illinois (DeKalb, Illinois) 5 21 26 2008
Masakra w Virginia Tech (Blacksburg, Wirginia) 32 23 55 2007
Strzelanina w szkole Amiszów (Hrabstwo Lancaster, Pensylwania) 6 5 11 2006
Masakra w Red Lake (Red Lake, Minnesota) 10 5 15 2005
Masakra w Columbine High School (Littleton, Kolorado) 13 24 37 1999
Strzelanina w Thurston High School (Springfield, Oregon) 4 25 29 1998
Zabójstwa w Westside Middle School (Jonesboro, Arkansas) 5 10 15 1998
Strzelanina w Lindhurst High School (Olivehurst, Kalifornia) 4 10 14 1992
Strzelanina na Uniwersytecie Iowa (Iowa City, Iowa) 6 1 7 1991
Strzelanina na boisku szkolnym w Stockton (Stockton, Kalifornia) 6 29 35 1989

Program oceny ryzyka został pomyślany jako zabezpieczenie umożliwiające wyłapanie dzieci, które mogą potrzebować pomocy i interwencji, zanim staną się samobójcze lub agresywne. Jak wykazano po każdym poprzednim incydencie, administratorzy, rodzice i uczniowie zastanawiają się, dlaczego wczesne sygnały ostrzegawcze – np cybernękanie, aluzje do broni i odniesienia do strzelaniny w Columbine High School w Kolorado w 1999 r. – nie zostały zauważone wcześniej.

Używanie sztucznej inteligencji do wyszukiwania wskazówek

Wyzwaniem była trudność w przesiewaniu gór danych generowanych na forach i w mediach społecznościowych kontach medialnych, aby znaleźć kilka igieł, które mogłyby zaalarmować szkolnego doradcę lub psychologa, że ​​dziecko się znajduje kłopoty. Aby więc odfiltrować takie wskazówki w Internecie, administratorzy korzystają z narzędzi sztucznej inteligencji.

„Naszym celem jest upewnienie się, że dziecko nigdy nie będzie chciało przynosić broni do szkoły”.

„Jesteśmy komponentem sztucznej inteligencji” – wyjaśniła Mina Lux, założycielka i dyrektor generalna Meelo Logic z siedzibą w Nowym Jorku. Jej firma współpracuje z Firestorm nad programem BERTHA, którego celem jest wykonanie wstępnego zadania polegającego na sortowaniu tak zwanych dużych zbiorów danych. „Naszym celem jest automatyzacja wiedzy w celu zrozumienia kontekstu”.

Oprogramowanie Meelo może śledzić komentarze i wpisy aż do ich pierwotnego źródła. Firma nazywa ten proces rozumowaniem przyczynowym, ale jest bardziej analogiczny do znalezienia pacjenta zero, pierwotnej osoby, co do której ktoś inny mógł wyrazić zaniepokojenie.

„Zazwyczaj w Internecie dochodzi do początkowego wybuchu, który celowo upubliczniają – może to być wołanie o pomoc” – wyjaśnił Hart Brown, dyrektor operacyjny Firestorm. „A w 80 procentach przypadków co najmniej jedna inna osoba wie, więc nawet jeśli pierwszy post jest prywatny, prawdopodobnie ktoś inny go upubliczni”.

jak sztuczna inteligencja może zbierać wskazówki, aby zapobiec przyszłym strzelaninom w szkołach protesty dotyczące strzelanin w szkołach 1
jak sztuczna inteligencja może zbierać wskazówki, aby zapobiec przyszłym strzelaninom w szkołach protesty dotyczące strzelanin w szkołach 3
jak sztuczna inteligencja może zbierać wskazówki, aby zapobiec przyszłym strzelaninom w szkołach protesty dotyczące strzelanin w szkołach 2
jak sztuczna inteligencja może zbierać wskazówki, aby zapobiec przyszłym strzelaninom w szkołach protesty dotyczące strzelanin w szkołach 4

Program AI zapewnia wstępną kontrolę na podstawie używanych terminów slangowych, kontekstu, lokalizacji i powiązanych linków. Następnie pulpit nawigacyjny BERTHA Firestorm sygnalizuje aktywność w celu ewentualnej interwencji. To tutaj wkraczają ludzie – doradcy, nauczyciele, psycholodzy – aby ocenić, czy istnieje realne zagrożenie, czy dziecko potrzebuje dodatkowej uwagi, ponieważ wykazuje złość lub skłonności samobójcze, czy też takie zachowanie jest potrzebne łagodny.

Wyzwaniem była trudność w przesiewaniu gór danych generowanych na forach i w mediach społecznościowych.

„Ale nikt nie jest odpowiedzialny za podjęcie tej decyzji” – stwierdziła Brenda Truelove, administratorka programu na uniwersytecie z Alabamy, który współpracował z Firestorm nad programem i powiązanym programem e-learningowym dla nauczycieli w całym kraju. „Jedna osoba może coś przeoczyć, więc to zespół ludzi decyduje, co zrobić”.

Truelove zauważył, że program opiera się na doświadczeniach nauczycieli, psychologów sądowych i innych ekspertów, aby stworzyć formułę radzenia sobie z potencjalnymi kryzysami.

Czy większe bezpieczeństwo oznacza mniej prywatności?

Chociaż potencjał sztucznej inteligencji w zapobieganie przyszłym strzelaninom w szkołach mogą być obiecujące, takie śledzenie i analiza danych budzą nieuniknione obawy dotyczące prywatności i dokładności oraz tego, czy bezpieczeństwo ma pierwszeństwo przed wszelkimi obawami.

Bryce Albert, uczeń dziewiątej klasy Marjory Stoneman Douglas High School, znajdował się na korytarzu na trzecim piętrze, gdy strzelec zaczął strzelać do uczniów. Kiedy Albert zobaczył zabójcę schodzącego korytarzem, nauczyciel wpuścił Alberta do klasy i przeżył. Od tego doświadczenia zmienił zdanie na temat prywatności.

Burza Ognia

„Wcześniej mówiłem: nie wchodź w moje sprawy” – Albert powiedział Digital Trends o tym, jak władze śledzą jego korzystanie z mediów społecznościowych. „Ale teraz całkowicie zmieniłem zdanie”.

Meelo's Lux podkreśliła, że ​​programy AI nie uzyskują dostępu do żadnych prywatnych kont; wszystkie informacje są publiczne. Loughlin z Firestorm podkreślił fakt, że samodzielnie nie gromadzi ani nie przechowuje danych. Prowadzone są przez poszczególne szkoły, które mają już doświadczenie w prowadzeniu dokumentacji uczniów. (Firestorm pobiera opłatę licencyjną w wysokości 2500 dolarów od szkoły, natomiast Uniwersytet Alabama oferuje bezpłatny kurs szkoleniowy online dla nauczycieli K-12 w Alabamie. Szkoły mogą również bezpłatnie pracować nad własnymi projektami wczesnego ostrzegania, korzystając z podstawowej, dziewięcioetapowej formuły Firestorma dotyczącej tworzenia takich programów.)

Lux przyznaje, że subtelności języka, takie jak sarkazm, mogą stanowić wyzwanie w przypadku wszelkich badań nad sztuczną inteligencją. Meelo koncentruje się na analizie tekstu, a nie na analizie obrazu podobnej do innych firm zajmujących się sztuczną inteligencją, jak Cortica, badanie. Mimo to istnieje miejsce na błędną interpretację nawet w przypadku uczestników będących ludźmi.

„Trudno wyrazić emocje poprzez SMS-y” – przyznał Albert.

Z drugiej strony program pozbawiony emocji nie faworyzuje ani nie ignoruje zmian emocjonalnych lub behawioralnych, które mogą wskazywać, że zbliżają się kłopoty.

Sztuczna inteligencja to nadal jedynie początkowy filtr lub narzędzie mające na celu powstrzymanie przyszłych strzelanin w szkołach.

„Ostatecznie może być dokładniejszy, eliminując jak najwięcej błędów” – powiedział Brown z Firestorm. Osoba z działu HR lub doradca może na przykład zminimalizować wybuchy emocjonalne danej osoby, mówiąc, że zdarza się to cały czas. Niemrugający komputer nie ma takich wymówek.

„Ale przeprowadzenie wywiadu z tą osobą nadal wymaga ludzkiego podejścia” – powiedział Brown. „Komputer nie określi, czy dana osoba wymaga wydalenia, czy też potrzebuje porady”.

Sztuczna inteligencja to narzędzie, a nie rozwiązanie

Wszyscy eksperci, z którymi Digital Trends rozmawiało na potrzeby tej historii, podkreślali fakt, że sztuczna inteligencja to wciąż jedynie wstępny filtr lub narzędzie mające na celu powstrzymanie przyszłych strzelanin w szkołach. Może generować powiadomienia o zagrożonych dzieciach, ale nie może powiedzieć nauczycielom, jak, kiedy ani nawet czy powinni interweniować. Szkoły nadal potrzebują własnego zespołu ekspertów – od nauczycieli znających uczniów po psychologów – i prawdopodobnie nadal będą ich potrzebować.

„Statystyki pokazują, że każda strzelanina w szkole zwiększa prawdopodobieństwo kolejnej strzelaniny” – stwierdziła Lux.

Ostatecznie najważniejszy jest czynnik ludzki. „Rozmawiaj z ludźmi i proś o pomoc” – powiedział Albert. „Nie bój się prosić o pomoc”.

Zalecenia redaktorów

  • Przeczytaj niesamowicie piękne „syntetyczne pismo” AI. który myśli, że jest Bogiem
  • Dlaczego uczenie robotów zabawy w chowanego może być kluczem do sztucznej inteligencji nowej generacji?
  • sztuczna inteligencja może pomóc wykryć charakterystyczne oznaki koronaawirusa na prześwietleniach płuc
  • Filtruj według pozytywności: ta nowa sztuczna inteligencja może odtruć wątki z komentarzami w Internecie
  • Inteligentna sztuczna inteligencja Body mogą ujawnić, kiedy u dziecka występują problemy z poruszaniem się