I lyset af de seneste dødelige skoleskyderier i USA søger pædagoger, forældre og sikkerhedseksperter efter teknologi for at hjælpe med at løse problemet. I spidsen er brugen af kunstig intelligens.
Indhold
- Brug af AI til at søge efter spor
- Betyder øget sikkerhed mindre privatliv?
- AI er et værktøj, ikke en løsning
"Vores mål er at sikre, at et barn aldrig vil have en pistol med i skole," Suzy Loughlin, medstifter og chefråd for Ildstorm, et krisehåndteringsfirma, sagde. Med henblik herpå har virksomheden i samarbejde med University of Alabama School of Continuing Education udviklet et forebyggelsesprogram, der leder efter tidlige advarselstegn hos børn, der kan være i risiko for at forpligte sig i fremtiden voldelige handlinger.
Døbt BERTHA, for Behavioral Risk Threat Assessment Program, voksede ideen ud af masseskyderiet i 2007 ved Virginia Tech, da 32 mennesker blev myrdet - en af de dødeligste i amerikansk historie. Skyderiet i februar på Marjory Stoneman Douglas High School i Parkland, Florida, der dræbte 17 mennesker, bragte flere opmærksomhed på problemet, understreget igen i maj af skyderiet i Santa Fe High School i Texas, hvor 10 elever og lærere blev dræbt.
Relaterede
- Følelsesfølende A.I. er her, og det kan blive til din næste jobsamtale
- A.I. lærerassistenter kunne hjælpe med at udfylde hullerne skabt af virtuelle klasseværelser
- Clearview AI's klientliste blev stjålet. Kunne dens massive ansigtsdatabase være den næste?
Skoleskyderi siden 1989, Kilde: Moder Jones
Utilsigtet hændelse | Dødsfald | Skadet | Totale ofre | År |
Santa Fe High School-skyderi (Santa Fe, TX) | 10 | 13 | 23 | 2018 |
Skyderi ved Marjory Stoneman Douglas High School (Parkland, Florida) | 17 | 14 | 31 | 2018 |
Skyderi ved Umpqua Community College (Roseburg, Oregon) | 9 | 9 | 18 | 2015 |
Skyderi Marysville-Pilchuck High School (Marysville, Washington) | 5 | 1 | 6 | 2014 |
Massemord på Isla Vista (Santa Barbara, Californien) | 6 | 13 | 19 | 2014 |
Sandy Hook Elementary massakre (Newtown, Connecticut) | 27 | 2 | 29 | 2012 |
Oikos University drab (Oakland, Californien) | 7 | 3 | 10 | 2012 |
Skyderi ved Northern Illinois University (DeKalb, Illinois) | 5 | 21 | 26 | 2008 |
Virginia Tech massakre (Blacksburg, Virginia) | 32 | 23 | 55 | 2007 |
Amish skoleskyderi (Lancaster County, Pennsylvania) | 6 | 5 | 11 | 2006 |
Red Lake massakre (Red Lake, Minnesota) | 10 | 5 | 15 | 2005 |
Columbine High School massakre (Littleton, Colorado) | 13 | 24 | 37 | 1999 |
Skyderi ved Thurston High School (Springfield, Oregon) | 4 | 25 | 29 | 1998 |
Mord på Westside Middle School (Jonesboro, Arkansas) | 5 | 10 | 15 | 1998 |
Skyderi ved Lindhurst High School (Olivehurst, Californien) | 4 | 10 | 14 | 1992 |
Skyderi ved University of Iowa (Iowa City, Iowa) | 6 | 1 | 7 | 1991 |
Stockton skolegårdsskyderi (Stockton, Californien) | 6 | 29 | 35 | 1989 |
Risikovurderingsprogrammet er tænkt som et sikkerhedsnet til at fange børn, der kan have brug for hjælp og intervention, før de bliver selvmordstruede eller voldelige. Som vist efter hver tidligere hændelse, undrer administratorer, forældre og elever sig over, hvorfor tidlige advarselstegn - f.eks cybermobning, hentydninger til våben og henvisninger til skyderiet på Columbine High School i Colorado i 1999 - blev ikke bemærket tidligere.
Brug af AI til at søge efter spor
Udfordringen har været vanskeligheden ved at søge gennem bjergene af data genereret i fora og sociale medier mediekonti for at finde de få nåle, der kan advare en skolerådgiver eller psykolog om, at et barn er i problemer. Så for at bortfiltrere sådanne spor online, bruger administratorer kunstig intelligens-værktøjer.
"Vores mål er at sikre, at et barn aldrig vil have en pistol med i skole."
"Vi er AI-komponenten," forklarede Mina Lux, grundlægger og administrerende direktør for New York-baserede Meelo Logic. Hendes virksomhed arbejder på BERTHA-programmet sammen med Firestorm for at udføre det indledende tunge løft af sortering gennem det, der er blevet kendt som big data. "Vores fokus er vidensautomatisering for at forstå konteksten."
Meelos software kan spore kommentarer og opslag tilbage til deres oprindelige kilde. Virksomheden omtaler processen som kausalt ræsonnement, men det er mere analogt med at finde patient nul, det oprindelige individ, som en anden kan have udtrykt bekymring for.
"Normalt er der et første udbrud online, og de gør det med vilje offentligt - det kan være et opkald om hjælp," forklarede Hart Brown, COO for Firestorm. "Og i 80 procent af tilfældene ved mindst én anden person, så selvom det første indlæg er privat, vil en anden sandsynligvis offentliggøre det."
AI-programmet giver den indledende screening baseret på anvendte slangudtryk, kontekst, placering og relaterede links. Derefter markerer Firestorms BERTHA-dashboard aktivitet for mulig indgriben. Det er her folk - rådgivere, lærere, psykologer - træder til for at vurdere, om der er en reel trussel, om et barn har brug for ekstra opmærksomhed, fordi det udviser vrede eller selvmordstendenser, eller om aktiviteten er godartet.
Udfordringen har været vanskeligheden ved at søge gennem bjergene af data genereret i fora og sociale medier.
"Men ingen person er ansvarlig for at træffe beslutningen," sagde Brenda Truelove, en programadministrator ved universitetet af Alabama, der har arbejdet med Firestorm på programmet og et tilhørende e-læringsprogram for undervisere i hele landet. "En person går måske glip af noget, så det er et team af mennesker, der beslutter, hvad de skal gøre."
Truelove bemærkede, at programmet er baseret på erfaringer fra lærere, retsmedicinske psykologer og andre eksperter for at skabe en formel til håndtering af potentielle kriser.
Betyder øget sikkerhed mindre privatliv?
Mens potentialet for AI i forhindre fremtidige skoleskyderier kan være lovende, en sådan sporing og dataanalyse rejser uundgåelige bekymringer om privatliv og nøjagtighed, og om sikkerheden tilsidesætter eventuelle bekymringer.
Bryce Albert, elev i niende klasse på Marjory Stoneman Douglas High School, var i gangen på tredje sal, da skytten begyndte at skyde mod elever. Da Albert så morderen komme ned ad gangen, lukkede en lærer Albert ind i et klasseværelse, og han overlevede. Siden den oplevelse har han haft en ændring i tankerne om privatlivets fred.
"Før var jeg sådan, lad være med at gå ind i mine ting," fortalte Albert til Digital Trends, om myndigheder, der sporer hans brug af sociale medier. "Men nu har jeg helt ændret mening."
Meelo's Lux understregede, at AI-programmerne ikke har adgang til nogen private konti; alle oplysninger er offentlige. Firestorms Loughlin understregede det faktum, at de ikke selv indsamler eller opbevarer dataene. Det vedligeholdes af de enkelte skoler, som allerede har erfaring med at føre elevjournaler. (Firestorm opkræver et licensgebyr på $2.500 pr. skole, mens University of Alabama tilbyder et gratis online træningskursus for Alabama K-12 undervisere. Skoler kan også arbejde på deres egne tidlige advarselsprojekter gratis ved at bruge Firestorms grundlæggende ni-trins formel til at etablere sådanne programmer.)
Lux anerkender, at sprogets finesser, såsom sarkasme, kan vise sig at være udfordrende for enhver AI-forskning. Meelo fokuserer på tekstanalyse snarere end den slags billedanalyse, andre AI-virksomheder, ligesom Cortica, undersøgelse. Alligevel er der plads til fejlfortolkning selv for menneskelige deltagere.
"Det er svært at få følelser gennem sms'er," erkendte Albert.
På den anden side spiller et lidenskabsløst program ikke favoritter eller ignorerer den slags følelsesmæssige eller adfærdsmæssige ændringer, der kan indikere, at problemer er forude.
AI er stadig kun et indledende filter eller værktøj til at stoppe fremtidige skoleskyderier.
"I sidste ende kan det være mere præcist ved at eliminere så meget bias som muligt," sagde Firestorms Brown. En HR-person eller -rådgiver kan minimere en persons følelsesmæssige udbrud, for eksempel ved at sige, at det sker hele tiden. Computeren, der ikke blinker, kommer ikke med sådanne undskyldninger.
"Men det kræver stadig et menneskeligt berøring at følge igennem, at interviewe den person," sagde Brown. "Computeren vil ikke afgøre, om denne person skal bortvises eller har brug for rådgivning."
AI er et værktøj, ikke en løsning
Alle de eksperter, Digital Trends talte med for denne historie, understregede det faktum, at AI stadig kun er et indledende filter eller værktøj til at stoppe fremtidige skoleskyderier. Det kan generere advarsler om børn i fare, men det kan ikke fortælle pædagogerne hvordan, hvornår eller endda om de skal gribe ind. Skoler har stadig brug for deres eget team af eksperter - fra lærere, der kender eleverne til psykologer - og vil sandsynligvis fortsat have brug for dem.
"Statistik viser, at med hvert skoleskyderi, der sker, er der større sandsynlighed for, at endnu et skoleskyderi sker," sagde Lux.
I sidste ende er det menneskelige element den vigtigste faktor. "Tal med folk og bed om hjælp," sagde Albert. "Vær ikke bange for at bede om hjælp."
Redaktørens anbefalinger
- Læs det uhyggeligt smukke 'syntetiske skrift' af en A.I. der tror, det er Gud
- Hvorfor lære robotter at lege gemmeleg kunne være nøglen til næste generations A.I.
- A.I. kunne hjælpe med at få øje på tydelige tegn på coronavirus i lungerøntgenstråler
- Filtrer efter positivitet: Denne nye A.I. kunne afgifte online kommentartråde
- Smart A.I. bodysuits kunne afsløre, hvornår babyer udvikler mobilitetsproblemer