Come l'intelligenza artificiale può raccogliere indizi per prevenire future sparatorie nelle scuole

Alla luce delle recenti sparatorie mortali nelle scuole degli Stati Uniti, educatori, genitori ed esperti di sicurezza stanno cercando la tecnologia per aiutare a risolvere il problema. In prima linea c'è l'uso di intelligenza artificiale.

Contenuti

  • Usare l'intelligenza artificiale per cercare indizi
  • Maggiore sicurezza significa meno privacy?
  • L’intelligenza artificiale è uno strumento, non una soluzione

"Il nostro obiettivo è garantire che un bambino non voglia mai portare una pistola a scuola", Suzy Loughlin, cofondatrice e capo del consiglio di Tempesta di fuoco, una società di gestione delle crisi, ha affermato. A tal fine, in collaborazione con la Scuola di formazione continua dell'Università dell'Alabama, l'azienda ha ha sviluppato un programma di prevenzione che cerca segnali di allarme precoci nei bambini che potrebbero essere a rischio di commettere futuri atti violenti.

Soprannominata BERTHA, che sta per Behavioral Risk Threat Assessment Program, l'idea è nata dalla sparatoria di massa del 2007 al Virginia Tech quando furono uccise 32 persone, una delle più mortali nella storia degli Stati Uniti. La sparatoria di febbraio alla Marjory Stoneman Douglas High School di Parkland, in Florida, che ha ucciso 17 persone, ne ha portate altre attenzione al tema, sottolineata ancora a maggio dalla sparatoria alla Santa Fe High School in Texas, dove morirono 10 studenti e insegnanti stati uccisi.

Imparentato

  • A.I. sensibile alle emozioni è qui e potrebbe essere nel tuo prossimo colloquio di lavoro
  • A.I. gli assistenti didattici potrebbero aiutare a colmare le lacune create dalle aule virtuali
  • L'elenco dei clienti di Clearview AI è stato rubato. Il suo enorme database di volti potrebbe essere il prossimo?

Vittime di sparatorie nelle scuole dal 1989, Fonte: Madre Jones

Incidente Fatalità Ferito Vittime totali Anno
Sparatoria alla scuola superiore di Santa Fe (Santa Fe, Texas) 10 13 23 2018
Sparatoria alla Marjory Stoneman Douglas High School (Parkland, Florida) 17 14 31 2018
Sparatoria all'Umpqua Community College (Roseburg, Oregon) 9 9 18 2015
Sparatoria alla Marysville-Pilchuck High School (Marysville, Washington) 5 1 6 2014
Omicidio di massa di Isla Vista (Santa Barbara, California) 6 13 19 2014
Massacro della scuola elementare di Sandy Hook (Newtown, Connecticut) 27 2 29 2012
Omicidi all'Università di Oikos (Oakland, California) 7 3 10 2012
Sparatoria alla Northern Illinois University (DeKalb, Illinois) 5 21 26 2008
Massacro della Virginia Tech (Blacksburg, Virginia) 32 23 55 2007
Sparatoria nella scuola Amish (contea di Lancaster, Pennsylvania) 6 5 11 2006
Massacro di Red Lake (Red Lake, Minnesota) 10 5 15 2005
Massacro della Columbine High School (Littleton, Colorado) 13 24 37 1999
Sparatoria alla Thurston High School (Springfield, Oregon) 4 25 29 1998
Omicidi della Westside Middle School (Jonesboro, Arkansas) 5 10 15 1998
Sparatoria alla Lindhurst High School (Olivehurst, California) 4 10 14 1992
Sparatoria all'Università dell'Iowa (Iowa City, Iowa) 6 1 7 1991
Sparatoria nel cortile della scuola di Stockton (Stockton, California) 6 29 35 1989

Il programma di valutazione del rischio è concepito come una rete di sicurezza per catturare i bambini che potrebbero aver bisogno di aiuto e intervento prima che diventino violenti o suicidi. Come dimostrato dopo ogni incidente precedente, amministratori, genitori e studenti si chiedono perché i primi segnali di allarme siano simili cyberbullismo, allusioni alle armi e riferimenti alla sparatoria alla Columbine High School in Colorado, nel 1999 – non sono stati notati prima.

Usare l'intelligenza artificiale per cercare indizi

La sfida è stata la difficoltà di vagliare le montagne di dati generati nei forum e nei social resoconti dei media per trovare i pochi aghi che potrebbero avvisare un consulente scolastico o uno psicologo della presenza di un bambino guaio. Pertanto, per filtrare tali indizi online, gli amministratori stanno utilizzando strumenti di intelligenza artificiale.

"Il nostro obiettivo è garantire che un bambino non voglia mai portare una pistola a scuola."

“Noi siamo la componente AI”, ha spiegato Mina Lux, fondatrice e CEO di Meelo Logic con sede a New York. La sua azienda sta lavorando al programma BERTHA con Firestorm per eseguire il pesante lavoro iniziale di smistamento di ciò che è diventato noto come big data. “Il nostro focus è l’automazione della conoscenza per comprendere il contesto.”

Il software di Meelo può risalire a commenti e post fino alla fonte originale. L’azienda definisce il processo come un ragionamento causale, ma è più analogo alla ricerca del paziente zero, l’individuo originale per il quale qualcun altro potrebbe aver espresso preoccupazione.

"Di solito, c'è uno sfogo iniziale online, e lo rendono pubblico di proposito: potrebbe essere una richiesta di aiuto", ha spiegato Hart Brown, COO di Firestorm. "E nell'80% dei casi almeno un'altra persona lo sa, quindi anche se il primo post è privato, è probabile che qualcun altro lo renda pubblico."

come l'intelligenza artificiale può raccogliere indizi per prevenire future sparatorie nelle scuole, protesta contro la sparatoria nelle scuole 1
come l'intelligenza artificiale può raccogliere indizi per prevenire future sparatorie nelle scuole, protesta contro la sparatoria nelle scuole 3
come l'intelligenza artificiale può raccogliere indizi per prevenire future sparatorie nelle scuole, protesta contro la sparatoria nelle scuole 2
come l'intelligenza artificiale può raccogliere indizi per prevenire future sparatorie nelle scuole, protesta contro la sparatoria nelle scuole 4

Il programma AI fornisce lo screening iniziale, basato sui termini gergali utilizzati, sul contesto, sulla posizione e sui collegamenti correlati. Quindi, la dashboard BERTHA di Firestorm segnala l’attività per un possibile intervento. È qui che le persone – consulenti, insegnanti, psicologi – intervengono per valutare se esiste una minaccia reale, se un bambino ha bisogno di ulteriore attenzione perché mostra rabbia o tendenze suicide, o se l'attività lo è benigno.

La sfida è stata la difficoltà di vagliare le montagne di dati generati nei forum e nei social media.

"Ma nessuna persona è responsabile della decisione", ha affermato Brenda Truelove, amministratrice del programma presso l'Università dell'Alabama che ha lavorato con Firestorm al programma e ad un programma di e-learning associato per educatori a livello nazionale. "A una persona potrebbe sfuggire qualcosa, quindi è un team di persone che decide cosa fare."

Truelove ha osservato che il programma si basa sull'esperienza di insegnanti, psicologi forensi e altri esperti per creare una formula per affrontare potenziali crisi.

Maggiore sicurezza significa meno privacy?

Mentre il potenziale dell’intelligenza artificiale in prevenire future sparatorie nelle scuole può essere promettente, tale tracciamento e analisi dei dati sollevano inevitabili preoccupazioni sulla privacy e sull’accuratezza e sulla possibilità che la sicurezza prevalga su qualsiasi preoccupazione.

Bryce Albert, uno studente della nona elementare della Marjory Stoneman Douglas High School, era nel corridoio del terzo piano quando l'assassino ha iniziato a sparare contro gli studenti. Quando Albert ha visto l'assassino scendere nel corridoio, un insegnante lo ha lasciato entrare in una classe ed è sopravvissuto. Da quell'esperienza, ha cambiato idea sulla privacy.

Tempesta di fuoco

"Prima, pensavo, non entrare nelle mie cose", ha detto Albert a Digital Trends, riguardo alle autorità che monitorano il suo utilizzo dei social media. "Ma ora ho completamente cambiato idea."

Lux di Meelo ha sottolineato che i programmi di intelligenza artificiale non accedono ad alcun account privato; tutte le informazioni sono pubbliche. Loughlin di Firestorm ha sottolineato il fatto che non raccolgono né archiviano i dati da soli. È gestito dalle singole scuole, che hanno già esperienza nella tenuta dei registri degli studenti. (Firestorm addebita una tassa di licenza di $ 2.500 per scuola, mentre l'Università dell'Alabama offre un corso di formazione online gratuito per gli educatori dell'Alabama K-12. Le scuole possono anche lavorare gratuitamente sui propri progetti di allarme rapido utilizzando la formula base in nove fasi di Firestorm per stabilire tali programmi.)

Lux riconosce che le sottigliezze del linguaggio, come il sarcasmo, possono rivelarsi impegnative per qualsiasi ricerca sull’intelligenza artificiale. Meelo si concentra sull'analisi testuale, piuttosto che sul tipo di analisi delle immagini di altre società di intelligenza artificiale. come Cortica, studio. Tuttavia, c’è spazio per interpretazioni errate anche per i partecipanti umani.

"È difficile provare emozioni attraverso gli SMS", ha riconosciuto Albert.

D’altro canto, un programma imparziale non gioca favoritismi né ignora i tipi di cambiamenti emotivi o comportamentali che potrebbero indicare che i problemi sono in arrivo.

L’intelligenza artificiale è ancora solo un filtro o uno strumento iniziale per fermare future sparatorie nelle scuole.

“In definitiva, può essere più accurato eliminando quanti più pregiudizi possibili”, ha affermato Brown di Firestorm. Una persona o un consulente delle risorse umane potrebbe minimizzare gli scoppi emotivi di una persona, ad esempio, dicendo che accade continuamente. Il computer che non batte le palpebre non trova scuse del genere.

"Ma richiede ancora un tocco umano per andare avanti, per intervistare quella persona", ha detto Brown. “Il computer non determinerà se quella persona deve essere espulsa o ha bisogno di consulenza”.

L’intelligenza artificiale è uno strumento, non una soluzione

Tutti gli esperti con cui Digital Trends ha parlato per questa storia hanno sottolineato il fatto che l’intelligenza artificiale è ancora solo un filtro o uno strumento iniziale per fermare future sparatorie nelle scuole. Può generare avvisi sui bambini a rischio, ma non può dire agli educatori come, quando o anche se dovrebbero intervenire. Le scuole hanno ancora bisogno del proprio team di esperti – dagli insegnanti che conoscono gli studenti agli psicologi – e probabilmente continueranno ad averne bisogno.

“Le statistiche mostrano che per ogni sparatoria avvenuta a scuola, c’è una maggiore probabilità che si verifichi un’altra sparatoria”, ha detto Lux.

In definitiva, l’elemento umano è il fattore più importante. “Parla con le persone e chiedi aiuto”, ha detto Albert. “Non abbiate paura di chiedere aiuto.”

Raccomandazioni degli editori

  • Leggi la "scrittura sintetica" stranamente bella di un A.I. che pensa che sia Dio
  • Perché insegnare ai robot a giocare a nascondino potrebbe essere la chiave per l’intelligenza artificiale di prossima generazione
  • A.I. potrebbe aiutare a individuare segni rivelatori di coronavirus nelle radiografie dei polmoni
  • Filtra per positività: questa nuova A.I. potrebbe disintossicare i thread di commenti online
  • L'intelligenza artificiale intelligente i body potrebbero rivelare quando i bambini stanno sviluppando problemi di mobilità