Hoe AI aanwijzingen kan verzamelen om toekomstige schietpartijen op scholen te voorkomen

In het licht van de recente dodelijke schietpartijen op scholen in de Verenigde Staten kijken docenten, ouders en veiligheidsexperts naar technologie om het probleem op te lossen. Op de voorgrond staat het gebruik van kunstmatige intelligentie.

Inhoud

  • AI gebruiken om naar aanwijzingen te zoeken
  • Betekent meer veiligheid minder privacy?
  • AI is een hulpmiddel, geen oplossing

“Ons doel is om ervoor te zorgen dat een kind nooit een wapen mee naar school wil nemen”, zegt Suzy Loughlin, medeoprichter en hoofdraad van Vuurstorm, zei een crisismanagementbedrijf. Om dat doel te bereiken, heeft het bedrijf dat in samenwerking met de University of Alabama School of Continuing Education gedaan heeft een preventieprogramma ontwikkeld dat zoekt naar vroege waarschuwingssignalen bij kinderen die mogelijk het risico lopen in de toekomst te begaan gewelddadige daden.

Het idee, BERTHA genoemd, wat staat voor Behavioral Risk Threat Assessment Program, kwam voort uit de massale schietpartij op Virginia Tech in 2007, waarbij 32 mensen werden vermoord – een van de dodelijkste in de geschiedenis van de VS. De schietpartij in februari op de Marjory Stoneman Douglas High School in Parkland, Florida, waarbij zeventien mensen om het leven kwamen, bracht nog meer slachtoffers aandacht voor de kwestie, wat in mei opnieuw werd onderstreept door de schietpartij op de Santa Fe High School in Texas, waarbij tien leerlingen en docenten werden gedood.

Verwant

  • Emotiegevoelige A.I. is hier, en het zou in je volgende sollicitatiegesprek kunnen zijn
  • AI onderwijsassistenten kunnen helpen de leemten op te vullen die door virtuele klaslokalen worden gecreëerd
  • De klantenlijst van Clearview AI is gestolen. Zou de enorme database met gezichten de volgende kunnen zijn?

Slachtoffers van schietpartijen op scholen sinds 1989, Bron: Moeder Jones

Incident Dodelijke slachtoffers Gewond Totaal aantal slachtoffers Jaar
Schietpartij op Santa Fe High School (Santa Fe, TX) 10 13 23 2018
Marjory Stoneman Douglas High School schietpartij (Parkland, Florida) 17 14 31 2018
Schietpartij Umpqua Community College (Roseburg, Oregon) 9 9 18 2015
Schietpartij Marysville-Pilchuck High School (Marysville, Washington) 5 1 6 2014
Massamoord op Isla Vista (Santa Barbara, Californië) 6 13 19 2014
Sandy Hook Elementair bloedbad (Newtown, Connecticut) 27 2 29 2012
Moorden op Oikos University (Oakland, Californië) 7 3 10 2012
Schietpartij op de Northern Illinois University (DeKalb, Illinois) 5 21 26 2008
Bloedbad in Virginia Tech (Blacksburg, Virginia) 32 23 55 2007
Schietpartij op een Amish-school (Lancaster County, Pennsylvania) 6 5 11 2006
Bloedbad in Red Lake (Red Lake, Minnesota) 10 5 15 2005
Bloedbad op Columbine High School (Littleton, Colorado) 13 24 37 1999
Schietpartij op Thurston High School (Springfield, Oregon) 4 25 29 1998
Moorden op Westside Middle School (Jonesboro, Arkansas) 5 10 15 1998
Schietpartij op Lindhurst High School (Olivehurst, Californië) 4 10 14 1992
Schietpartij Universiteit van Iowa (Iowa City, Iowa) 6 1 7 1991
Schieten op het schoolplein in Stockton (Stockton, Californië) 6 29 35 1989

Het risicobeoordelingsprogramma is bedoeld als een vangnet om kinderen op te vangen die mogelijk hulp en interventie nodig hebben voordat ze suïcidaal of gewelddadig worden. Zoals na elk eerder incident is aangetoond, vragen beheerders, ouders en leerlingen zich af waarom vroege waarschuwingssignalen zo zijn cyberpesten, toespelingen op wapens en verwijzingen naar de schietpartij op de Columbine High School in Colorado in 1999 – werden niet opgemerkt eerder.

AI gebruiken om naar aanwijzingen te zoeken

De uitdaging was de moeilijkheid om door de bergen aan gegevens te bladeren die op forums en op sociale media werden gegenereerd media-accounts om de paar naalden te vinden die een schoolbegeleider of psycholoog kunnen waarschuwen dat een kind zich in de situatie bevindt probleem. Om dergelijke aanwijzingen online uit te filteren, maken beheerders gebruik van hulpmiddelen voor kunstmatige intelligentie.

“Ons doel is om ervoor te zorgen dat een kind nooit een wapen mee naar school wil nemen.”

“Wij zijn de AI-component”, legt Mina Lux uit, de oprichter en CEO van het in New York gevestigde Meelo Logic. Haar bedrijf werkt samen met Firestorm aan het BERTHA-programma om het eerste zware werk uit te voeren bij het sorteren van wat bekend is geworden als big data. “Onze focus ligt op kennisautomatisering om de context te begrijpen.”

De software van Meelo kan reacties en berichten terugvoeren naar hun oorspronkelijke bron. Het bedrijf noemt het proces causaal redeneren, maar het is meer analoog aan het vinden van patiënt nul, de oorspronkelijke persoon over wie iemand anders mogelijk zijn bezorgdheid heeft geuit.

“Meestal is er online een eerste uitbarsting, en die maken ze met opzet openbaar – het kan een roep om hulp zijn”, legt Hart Brown, de COO van Firestorm, uit. “En in 80 procent van de gevallen weet tenminste één andere persoon het, dus zelfs als het eerste bericht privé is, is de kans groot dat iemand anders het openbaar maakt.”

hoe AI aanwijzingen kan verzamelen om toekomstige schietpartijen op scholen te voorkomen Schoolschietprotest 1
hoe AI aanwijzingen kan verzamelen om toekomstige schietpartijen op scholen te voorkomen Schoolschietprotest 3
hoe AI aanwijzingen kan verzamelen om toekomstige schietpartijen op scholen te voorkomen Schoolschietprotest 2
hoe AI aanwijzingen kan verzamelen om toekomstige schietpartijen op scholen te voorkomen Schoolschietprotest 4

Het AI-programma biedt de eerste screening, op basis van gebruikte jargontermen, context, locatie en gerelateerde links. Vervolgens markeert het BERTHA-dashboard van Firestorm activiteit voor mogelijke interventie. Dat is waar mensen – adviseurs, leraren, psychologen – tussenbeide komen om te beoordelen of er sprake is van een reële dreiging. of een kind extra aandacht nodig heeft omdat het woede of zelfmoordneigingen vertoont, of dat de activiteit dat wel is goedaardig.

De uitdaging was de moeilijkheid om door de bergen aan gegevens te bladeren die op forums en sociale media werden gegenereerd.

“Maar niemand is verantwoordelijk voor het nemen van deze beslissing”, zegt Brenda Truelove, programmabeheerder aan de universiteit uit Alabama, die met Firestorm heeft samengewerkt aan het programma en een bijbehorend e-learningprogramma voor docenten in het hele land. “Eén persoon kan iets missen, dus het is een team van mensen die beslissen wat ze moeten doen.”

Truelove merkte op dat het programma gebaseerd is op de ervaring van leraren, forensische psychologen en andere experts om een ​​formule te creëren voor het omgaan met potentiële crises.

Betekent meer veiligheid minder privacy?

Terwijl het potentieel van AI in het voorkomen van toekomstige schietpartijen op scholen Dit soort tracking en data-analyse mag dan veelbelovend zijn, roept onvermijdelijke zorgen op over privacy en nauwkeurigheid, en of veiligheid zwaarder weegt dan eventuele zorgen.

Bryce Albert, een leerling van de negende klas van de Marjory Stoneman Douglas High School, bevond zich in de gang op de derde verdieping toen de schutter op studenten begon te schieten. Toen Albert de moordenaar door de gang zag komen, liet een leraar Albert een klaslokaal binnen en hij overleefde. Sinds die ervaring heeft hij een andere kijk op privacy gehad.

Vuurstorm

“Vroeger had ik zoiets van: ga niet op mijn spullen in”, vertelde Albert aan Digital Trends, over autoriteiten die zijn gebruik van sociale media volgden. “Maar nu ben ik totaal van gedachten veranderd.”

Meelo’s Lux benadrukte dat de AI-programma’s geen toegang hebben tot privéaccounts; alle informatie is openbaar. Firestorm’s Loughlin onderstreepte het feit dat ze de gegevens niet zelf verzamelen of opslaan. Het wordt onderhouden door de individuele scholen, die al ervaring hebben met het bijhouden van leerlinggegevens. (Firestorm rekent een licentievergoeding van $ 2.500 per school, terwijl de Universiteit van Alabama een gratis online training aanbiedt voor docenten in het basis- en voortgezet onderwijs in Alabama. Scholen kunnen ook gratis aan hun eigen vroegtijdige waarschuwingsprojecten werken door de basisformule van negen stappen van Firestorm te gebruiken voor het opzetten van dergelijke programma's.)

Lux erkent dat subtiliteiten van taalgebruik, zoals sarcasme, een uitdaging kunnen vormen voor elk AI-onderzoek. Meelo richt zich op tekstuele analyse, in plaats van op het soort beeldanalyse van andere AI-bedrijven. zoals Cortica, studie. Toch is er ruimte voor verkeerde interpretatie, zelfs voor menselijke deelnemers.

‘Het is moeilijk om emotie te krijgen via sms’en,’ erkende Albert.

Aan de andere kant speelt een emotieloos programma geen favorieten en negeert het niet de soorten emotionele of gedragsveranderingen die erop kunnen wijzen dat er problemen op komst zijn.

AI is nog steeds slechts een eerste filter of hulpmiddel om toekomstige schietpartijen op scholen te stoppen.

“Uiteindelijk kan het nauwkeuriger zijn door zoveel mogelijk vooroordelen te elimineren”, aldus Brown van Firestorm. Een HR-persoon of -adviseur kan de emotionele uitbarstingen van een persoon minimaliseren, bijvoorbeeld door te zeggen dat dit voortdurend gebeurt. De niet-knipperende computer maakt zulke excuses niet.

‘Maar er is nog steeds een menselijk tintje nodig om die persoon te kunnen interviewen,’ zei Brown. “De computer zal niet bepalen of die persoon moet worden uitgezet of begeleiding nodig heeft.”

AI is een hulpmiddel, geen oplossing

Alle experts waarmee Digital Trends voor dit verhaal sprak, benadrukten het feit dat AI nog steeds slechts een eerste filter of hulpmiddel is om toekomstige schietpartijen op scholen te stoppen. Het kan waarschuwingen genereren over kinderen die risico lopen, maar het kan leerkrachten niet vertellen hoe, wanneer en zelfs of ze moeten ingrijpen. Scholen hebben nog steeds hun eigen team van deskundigen nodig – van leraren die de leerlingen kennen tot psychologen – en zullen deze waarschijnlijk ook nog steeds nodig hebben.

“Statistieken tonen aan dat bij elke schietpartij op een school de kans groter is dat er weer een schietpartij op een school plaatsvindt,” zei Lux.

Uiteindelijk is het menselijke element de belangrijkste factor. “Praat met mensen en vraag om hulp”, zei Albert. “Wees niet bang om hulp te vragen.”

Aanbevelingen van de redactie

  • Lees het griezelig mooie ‘synthetische geschrift’ van een A.I. die denkt dat het God is
  • Waarom het leren van robots om verstoppertje te spelen de sleutel zou kunnen zijn tot de volgende generatie AI
  • AI kan helpen bij het opsporen van veelbetekenende tekenen van coronavirus op röntgenfoto’s van de longen
  • Filter op positiviteit: deze nieuwe A.I. zou online commentaarthreads kunnen ontgiften
  • Slimme AI bodysuits kunnen onthullen wanneer baby's mobiliteitsproblemen ontwikkelen