Hvordan AI kan samle ledetråder for å forhindre fremtidige skoleskytinger

I lys av nylig dødelige skoleskytinger i USA, ser lærere, foreldre og sikkerhetseksperter på teknologi for å hjelpe til med å løse problemet. I forkant er bruken av kunstig intelligens.

Innhold

  • Bruke AI for å søke etter ledetråder
  • Betyr økt sikkerhet mindre personvern?
  • AI er et verktøy, ikke en løsning

"Målet vårt er å sørge for at et barn aldri vil ta med en pistol på skolen," Suzy Loughlin, medgründer og sjefsråd for Brannstorm, et krisehåndteringsfirma, sa. Mot det målet, i samarbeid med University of Alabama School of Continuing Education, har selskapet utviklet et forebyggingsprogram som ser etter tidlige advarselstegn hos barn som kan stå i fare for å forplikte seg i fremtiden voldelige handlinger.

Kalt BERTHA, for Behavioral Risk Threat Assessment Program, vokste ideen ut av masseskytingen i 2007 ved Virginia Tech da 32 mennesker ble myrdet - en av de dødeligste i USAs historie. Skytingen i februar på Marjory Stoneman Douglas High School i Parkland, Florida som drepte 17 mennesker, førte til flere oppmerksomhet til problemet, understreket igjen i mai, av skytingen på Santa Fe High School i Texas hvor 10 elever og lærere ble drept.

I slekt

  • Følelsesfølende A.I. er her, og det kan være i ditt neste jobbintervju
  • A.I. lærerassistenter kan bidra til å fylle hullene som skapes av virtuelle klasserom
  • Clearview AIs klientliste ble stjålet. Kan dens massive ansiktsdatabase bli neste?

Ofre for skoleskyting siden 1989, Kilde: Mor Jones

hendelse Dødsfall Skadet Totale ofre År
Santa Fe High School-skyting (Santa Fe, TX) 10 13 23 2018
Skyting på Marjory Stoneman Douglas High School (Parkland, Florida) 17 14 31 2018
Skyting på Umpqua Community College (Roseburg, Oregon) 9 9 18 2015
Skyting på Marysville-Pilchuck High School (Marysville, Washington) 5 1 6 2014
Isla Vista massemord (Santa Barbara, California) 6 13 19 2014
Sandy Hook Elementary massakre (Newtown, Connecticut) 27 2 29 2012
Drap ved Oikos University (Oakland, California) 7 3 10 2012
Skyting ved Northern Illinois University (DeKalb, Illinois) 5 21 26 2008
Virginia Tech-massakren (Blacksburg, Virginia) 32 23 55 2007
Amish skoleskyting (Lancaster County, Pennsylvania) 6 5 11 2006
Red Lake-massakren (Red Lake, Minnesota) 10 5 15 2005
Columbine High School-massakren (Littleton, Colorado) 13 24 37 1999
Skyting på Thurston High School (Springfield, Oregon) 4 25 29 1998
Drap på Westside Middle School (Jonesboro, Arkansas) 5 10 15 1998
Skyting på Lindhurst High School (Olivehurst, California) 4 10 14 1992
University of Iowa skyting (Iowa City, Iowa) 6 1 7 1991
Stockton skolegårdsskyting (Stockton, California) 6 29 35 1989

Risikovurderingsprogrammet er tenkt som et sikkerhetsnett for å fange opp barn som kan trenge hjelp og intervensjon før de blir suicidale eller voldelige. Som demonstrert etter hver forrige hendelse, lurer administratorer, foreldre og elever på hvorfor tidlige advarselstegn - som nettmobbing, hentydninger til våpen og referanser til skytingen på Columbine High School i Colorado i 1999 – ble ikke lagt merke til Tidligere.

Bruke AI for å søke etter ledetråder

Utfordringen har vært vanskeligheten med å sile gjennom fjellene av data generert i fora og sosiale medier mediekontoer for å finne de få nålene som kan varsle en skolerådgiver eller psykolog om at et barn er i problemer. Så for å filtrere ut slike ledetråder på nettet, bruker administratorer kunstig intelligens-verktøy.

"Målet vårt er å sørge for at et barn aldri vil ta med en pistol på skolen."

"Vi er AI-komponenten," forklarte Mina Lux, grunnlegger og administrerende direktør for New York-baserte Meelo Logic. Selskapet hennes jobber med BERTHA-programmet med Firestorm for å utføre de første tunge løftingene med å sortere gjennom det som har blitt kjent som big data. "Vårt fokus er kunnskapsautomatisering for å forstå konteksten."

Meelos programvare kan spore kommentarer og innlegg tilbake til den opprinnelige kilden. Selskapet omtaler prosessen som årsaksgrunnlag, men det er mer analogt med å finne pasientnull, den opprinnelige personen som noen andre kan ha uttrykt bekymring for.

"Vanligvis er det et første utbrudd på nettet, og de gjør det med vilje offentlig - det kan være et rop om hjelp," forklarte Hart Brown, COO for Firestorm. "Og i 80 prosent av tilfellene er det minst én annen person som vet det, så selv om det første innlegget er privat, vil sannsynligvis noen andre gjøre det offentlig."

hvordan ai kan samle ledetråder for å forhindre fremtidige skoleskytinger skoleskyteprotest 1
hvordan ai kan samle ledetråder for å forhindre fremtidige skoleskytinger skoleskyteprotest 3
hvordan ai kan samle ledetråder for å forhindre fremtidige skoleskytinger skoleskyteprotest 2
hvordan ai kan samle ledetråder for å forhindre fremtidige skoleskytinger skoleskyteprotest 4

AI-programmet gir den første screeningen, basert på slanguttrykk som brukes, kontekst, plassering og relaterte lenker. Deretter flagger Firestorms BERTHA-dashbord aktivitet for mulig intervensjon. Det er der folk – rådgivere, lærere, psykologer – går inn for å vurdere om det er en reell trussel, om et barn trenger ekstra oppmerksomhet fordi det viser sinne eller selvmordstendenser, eller om aktiviteten er godartet.

Utfordringen har vært vanskeligheten med å sile gjennom fjellene av data generert i fora og sosiale medier.

"Men ingen person er ansvarlig for å ta avgjørelsen," sa Brenda Truelove, en programadministrator ved universitetet fra Alabama som har jobbet med Firestorm på programmet og et tilhørende e-læringsprogram for lærere over hele landet. "En person kan gå glipp av noe, så det er et team av mennesker som bestemmer hva de skal gjøre."

Truelove bemerket at programmet er basert på erfaring fra lærere, rettsmedisinske psykologer og andre eksperter for å lage en formel for å håndtere potensielle kriser.

Betyr økt sikkerhet mindre personvern?

Mens potensialet til AI i forhindre fremtidige skoleskytinger kan være lovende, slik sporing og dataanalyse vekker uunngåelige bekymringer om personvern og nøyaktighet, og om sikkerhet overstyrer eventuelle bekymringer.

Bryce Albert, en elev i niende klasse ved Marjory Stoneman Douglas High School, var i gangen i tredje etasje da skytteren begynte å skyte mot elever. Da Albert så morderen komme ned gangen, slapp en lærer Albert inn i et klasserom, og han overlevde. Siden den opplevelsen har han hatt en endring i tankene om personvern.

Brannstorm

"Før tenkte jeg, ikke gå inn i tingene mine," sa Albert til Digital Trends, om myndighetene som sporer bruken av sosiale medier. "Men nå har jeg helt ombestemt meg."

Meelo’s Lux understreket at AI-programmene ikke har tilgang til noen private kontoer; all informasjon er offentlig. Firestorms Loughlin understreket det faktum at de ikke samler inn eller lagrer dataene selv. Det vedlikeholdes av de enkelte skolene, som allerede har erfaring med å føre elevjournaler. (Firestorm krever en lisensavgift på $2500 per skole, mens University of Alabama tilbyr et gratis online opplæringskurs for Alabama K-12-lærere. Skoler kan også jobbe med sine egne tidlige varslingsprosjekter gratis ved å bruke Firestorms grunnleggende ni-trinns formel for å etablere slike programmer.)

Lux erkjenner at finesser i språket, som sarkasme, kan vise seg å være utfordrende for enhver AI-forskning. Meelo fokuserer på tekstanalyse, snarere enn den typen bildeanalyse andre AI-selskaper, som Cortica, studere. Likevel er det rom for feiltolkning selv for menneskelige deltakere.

"Det er vanskelig å få følelser gjennom teksting," erkjente Albert.

På den annen side spiller ikke et lidenskapelig program favoritter eller ignorerer den typen emosjonelle eller atferdsendringer som kan indikere at problemer er i vente.

AI er fortsatt bare et første filter eller verktøy for å stoppe fremtidige skoleskytinger.

"Til syvende og sist kan det være mer nøyaktig ved å eliminere så mye skjevhet som mulig," sa Firestorms Brown. En HR-person eller rådgiver kan minimere en persons følelsesmessige utbrudd, for eksempel ved å si at det skjer hele tiden. Datamaskinen som ikke blinker gir ingen slike unnskyldninger.

"Men det krever fortsatt en menneskelig berøring å følge gjennom, å intervjue den personen," sa Brown. "Datamaskinen vil ikke avgjøre om denne personen må utvises eller trenger rådgivning."

AI er et verktøy, ikke en løsning

Alle ekspertene Digital Trends snakket med for denne historien understreket det faktum at AI fortsatt bare er et første filter eller verktøy for å stoppe fremtidige skoleskytinger. Den kan generere varsler om barn i faresonen, men den kan ikke fortelle lærere hvordan, når eller om de bør gripe inn. Skoler trenger fortsatt sitt eget team av eksperter – fra lærere som kjenner elevene til psykologer – og vil sannsynligvis fortsette å trenge dem.

"Statistikk viser at med hver skoleskyting som skjer, er det større sannsynlighet for at en ny skoleskyting skjer," sa Lux.

Til syvende og sist er det menneskelige elementet den viktigste faktoren. "Snakk med folk og be om hjelp," sa Albert. "Ikke vær redd for å be om hjelp."

Redaktørenes anbefalinger

  • Les den uhyggelig vakre 'syntetiske skriften' til en A.I. som tror det er Gud
  • Hvorfor lære roboter å leke gjemsel kan være nøkkelen til neste generasjons A.I.
  • A.I. kan bidra til å oppdage tydelige tegn på koronavirus i lungerøntgen
  • Filtrer etter positivitet: Denne nye A.I. kunne avgifte kommentartråder på nett
  • Smart A.I. bodysuits kan avsløre når babyer utvikler mobilitetsproblemer