Kako lahko umetna inteligenca zbere namige za preprečitev prihodnjih streljanj v šolah

V luči nedavnih smrtonosnih streljanj v šolah v Združenih državah iščejo vzgojitelji, starši in varnostni strokovnjaki tehnologijo, ki bi pomagala rešiti problem. V ospredju je uporaba umetna inteligenca.

Vsebina

  • Uporaba AI za iskanje namigov
  • Ali večja varnost pomeni manj zasebnosti?
  • AI je orodje, ne rešitev

»Naš cilj je zagotoviti, da otrok nikoli ne želi prinesti pištole v šolo,« je Suzy Loughlin, soustanoviteljica in vodja sveta Ognjena nevihta, podjetje za krizno upravljanje, je dejal. V ta namen je podjetje v sodelovanju s šolo za nadaljnje izobraževanje Univerze v Alabami razvili preventivni program, ki išče zgodnje opozorilne znake pri otrocih, ki bi lahko bili v nevarnosti, da se bodo v prihodnosti nasilna dejanja.

Ideja, imenovana BERTHA, za program za oceno nevarnosti vedenjskega tveganja, je nastala iz množičnega streljanja leta 2007 na univerzi Virginia Tech, ko je bilo umorjenih 32 ljudi – enega najsmrtonosnejših v zgodovini ZDA. Februarsko streljanje na srednji šoli Marjory Stoneman Douglas v Parklandu na Floridi, v katerem je umrlo 17 ljudi, je prineslo še več pozornost temu vprašanju, ki ga je maja ponovno poudarilo streljanje na srednji šoli Santa Fe v Teksasu, kjer je bilo ubitih 10 dijakov in učiteljev so bili ubiti.

Povezano

  • A.I., ki zaznava čustva je tukaj in bi lahko bil na vašem naslednjem razgovoru za službo
  • A.I. pomočniki pri poučevanju bi lahko pomagali zapolniti vrzeli, ki jih ustvarjajo virtualne učilnice
  • Seznam strank Clearview AI je bil ukraden. Ali bi lahko bila naslednja njegova ogromna baza obrazov?

Žrtve streljanja v šoli od leta 1989, Vir: Mati Jones

Nezgoda Smrtne žrtve Poškodovan Totalne žrtve leto
Streljanje v srednji šoli Santa Fe (Santa Fe, TX) 10 13 23 2018
Streljanje na srednji šoli Marjory Stoneman Douglas (Parkland, Florida) 17 14 31 2018
Streljanje na Umpqua Community College (Roseburg, Oregon) 9 9 18 2015
Streljanje na srednji šoli Marysville-Pilchuck (Marysville, Washington) 5 1 6 2014
Množični umor v Isla Vista (Santa Barbara, Kalifornija) 6 13 19 2014
Masaker v osnovni šoli Sandy Hook (Newtown, Connecticut) 27 2 29 2012
Umori na univerzi Oikos (Oakland, Kalifornija) 7 3 10 2012
Streljanje na univerzi Northern Illinois (DeKalb, Illinois) 5 21 26 2008
Masaker Virginia Tech (Blacksburg, Virginia) 32 23 55 2007
Streljanje v amiški šoli (okrožje Lancaster, Pensilvanija) 6 5 11 2006
Pokol v Red Lakeu (Red Lake, Minnesota) 10 5 15 2005
Pokol v srednji šoli Columbine (Littleton, Colorado) 13 24 37 1999
Streljanje na srednji šoli Thurston (Springfield, Oregon) 4 25 29 1998
Umori v srednji šoli Westside (Jonesboro, Arkansas) 5 10 15 1998
Streljanje na srednji šoli Lindhurst (Olivehurst, Kalifornija) 4 10 14 1992
Streljanje na univerzi Iowa (Iowa City, Iowa) 6 1 7 1991
Streljanje na šolskem dvorišču Stockton (Stockton, Kalifornija) 6 29 35 1989

Program ocene tveganja je zasnovan kot varnostna mreža za ulov otrok, ki morda potrebujejo pomoč in posredovanje, preden postanejo samomorilni ali nasilni. Kot je prikazano po vsakem prejšnjem incidentu, se skrbniki, starši in učenci sprašujejo, zakaj zgodnji opozorilni znaki - kot je spletno ustrahovanje, namigovanja na orožje in sklicevanja na streljanje na srednji šoli Columbine v Koloradu leta 1999 - niso bili opaženi prej.

Uporaba AI za iskanje namigov

Izziv je bila težava pri presejanju skozi gore podatkov, ustvarjenih na forumih in družbenih omrežjih medijske račune, da bi našli nekaj igel, ki bi lahko opozorile šolskega svetovalnega delavca ali psihologa, da je otrok v težave. Zato skrbniki za filtriranje takšnih namigov na spletu uporabljajo orodja umetne inteligence.

"Naš cilj je zagotoviti, da otrok nikoli ne želi prinesti pištole v šolo."

"Mi smo komponenta AI," je pojasnila Mina Lux, ustanoviteljica in izvršna direktorica Meelo Logic s sedežem v New Yorku. Njeno podjetje dela na programu BERTHA s Firestormom za izvedbo začetnega težkega dela pri razvrščanju tega, kar je postalo znano kot veliki podatki. "Naš fokus je avtomatizacija znanja za razumevanje konteksta."

Programska oprema Meelo lahko sledi komentarjem in objavam nazaj do njihovega izvirnega vira. Podjetje postopek označuje kot vzročno sklepanje, vendar je bolj podoben iskanju pacienta nič, prvotnega posameznika, glede katerega je morda nekdo drug izrazil zaskrbljenost.

"Običajno pride do začetnega izbruha na spletu in to namenoma objavijo - morda je to klic na pomoč," je pojasnil Hart Brown, operativni direktor podjetja Firestorm. "In v 80 odstotkih primerov vsaj ena oseba ve, tako da tudi če je prva objava zasebna, jo bo nekdo drug verjetno objavil."

kako lahko umetna inteligenca zbere namige za preprečitev streljanja v šolah streljanje v šoli protest 1
kako lahko umetna inteligenca zbere namige za preprečitev prihodnjega streljanja v šoli streljanje v šoli protest 3
kako lahko umetna inteligenca zbere namige za preprečitev streljanja v šolah streljanje v šoli protest 2
kako lahko umetna inteligenca zbere namige za preprečitev prihodnjih strelskih napadov v šolah protest proti streljanju v šolah 4

Program AI zagotavlja začetni pregled na podlagi uporabljenih slengovskih izrazov, konteksta, lokacije in povezanih povezav. Nato Firestormova nadzorna plošča BERTHA označi dejavnost za morebitno posredovanje. Tu stopijo ljudje – svetovalci, učitelji, psihologi – in ocenijo, ali obstaja resnična grožnja, ali otrok potrebuje dodatno pozornost, ker izkazuje jezo ali samomorilne težnje ali če je dejavnost benigna.

Izziv je bila težava pri presejanju skozi gore podatkov, ustvarjenih na forumih in družbenih medijih.

"Ampak nobena oseba ni odgovorna za odločitev," je dejala Brenda Truelove, skrbnica programa na univerzi iz Alabame, ki je sodeloval s Firestormom pri programu in povezanem programu e-učenja za učitelje po vsej državi. "Ena oseba lahko nekaj zamudi, zato se ekipa ljudi odloči, kaj bo naredila."

Truelove je opozoril, da program temelji na izkušnjah učiteljev, forenzičnih psihologov in drugih strokovnjakov za ustvarjanje formule za obvladovanje morebitnih kriz.

Ali večja varnost pomeni manj zasebnosti?

Medtem ko potencial umetne inteligence v preprečevanje streljanja v šolah v prihodnje morda obetavna, takšno sledenje in analiza podatkov vzbuja neizogibne pomisleke glede zasebnosti in točnosti ter glede tega, ali varnost prevlada nad morebitnimi pomisleki.

Bryce Albert, učenec devetega razreda srednje šole Marjory Stoneman Douglas, je bil na hodniku v tretjem nadstropju, ko je strelec začel streljati na učence. Ko je Albert videl morilca prihajati po hodniku, je učitelj spustil Alberta v učilnico in ta je preživel. Od te izkušnje je spremenil svoje mišljenje o zasebnosti.

Ognjena nevihta

"Prej sem si rekel, ne spuščaj se v moje stvari," je Albert povedal za Digital Trends, o organih, ki spremljajo njegovo uporabo družbenih medijev. "Toda zdaj sem si popolnoma premislil."

Meelo's Lux je poudaril, da programi AI ne dostopajo do nobenih zasebnih računov; vse informacije so javne. Loughlin iz Firestorma je poudaril dejstvo, da sami ne zbirajo ali shranjujejo podatkov. Vodijo ga posamezne šole, ki že imajo izkušnje z vodenjem dijaških evidenc. (Firestorm zaračuna licenčnino v višini 2.500 USD na šolo, medtem ko Univerza v Alabami ponuja brezplačen spletni tečaj za učitelje K-12 v Alabami. Šole lahko tudi brezplačno delajo na lastnih projektih zgodnjega opozarjanja z uporabo Firestormove osnovne formule v devetih korakih za vzpostavitev takšnih programov.)

Lux priznava, da se lahko podrobnosti jezika, kot je sarkazem, izkažejo za izziv za katero koli raziskavo umetne inteligence. Meelo se osredotoča na analizo besedila, namesto na analizo slik, ki jo izvajajo druga podjetja za umetno inteligenco, kot Cortica, študij. Kljub temu obstaja prostor za napačno razlago tudi za človeške udeležence.

"Težko je pridobiti čustva s pošiljanjem sporočil," je priznal Albert.

Po drugi strani pa nepristranski program ne igra priljubljenih ali ignorira vrst čustvenih ali vedenjskih sprememb, ki bi lahko nakazovale, da so pred nami težave.

AI je še vedno samo začetni filter ali orodje za zaustavitev prihodnjih šolskih streljanj.

"Navsezadnje je lahko natančnejši z odpravo čim večje pristranskosti," je dejal Brown iz Firestorma. Oseba za človeške vire ali svetovalec lahko zmanjša čustvene izbruhe osebe, na primer z besedami, da se to dogaja ves čas. Neutripajoči računalnik nima takih izgovorov.

"Toda še vedno je potreben človeški dotik, da sledimo, intervjuvamo to osebo," je dejal Brown. "Računalnik ne bo ugotovil, ali je treba to osebo izključiti ali potrebuje svetovanje."

AI je orodje, ne rešitev

Vsi strokovnjaki, s katerimi je Digital Trends govoril za to zgodbo, so poudarili dejstvo, da je umetna inteligenca še vedno samo začetni filter ali orodje za zaustavitev prihodnjih šolskih streljanj. Ustvari lahko opozorila o ogroženih otrocih, ne more pa vzgojiteljem povedati, kako, kdaj ali celo, če naj posredujejo. Šole še vedno potrebujejo svojo skupino strokovnjakov – od učiteljev, ki poznajo učence, do psihologov – in jih bodo verjetno še naprej potrebovale.

"Statistika kaže, da je z vsakim streljanjem v šoli večja verjetnost, da se zgodi še eno streljanje v šoli," je dejal Lux.

Navsezadnje je človeški element najpomembnejši dejavnik. "Pogovarjajte se z ljudmi in prosite za pomoč," je rekel Albert. "Ne bojte se prositi za pomoč."

Priporočila urednikov

  • Preberite srhljivo lepe "sintetične spise" A.I. ki misli, da je Bog
  • Zakaj je učenje robotov, da se igrajo skrivalnice, lahko ključ do A.I.
  • A.I. bi lahko pomagal odkriti znake koronavirusa na rentgenskih slikah pljuč
  • Filtriraj po pozitivnosti: ta novi A.I. bi lahko razstrupil niti spletnih komentarjev
  • Pametni AI bodi bi lahko razkrili, kdaj se pri dojenčkih pojavljajo težave z gibljivostjo