Comment l’IA peut collecter des indices pour prévenir de futures fusillades dans les écoles

À la lumière des récentes fusillades meurtrières dans des écoles aux États-Unis, les éducateurs, les parents et les experts en sécurité se tournent vers la technologie pour résoudre le problème. Au premier plan se trouve l'utilisation de intelligence artificielle.

Contenu

  • Utiliser l'IA pour rechercher des indices
  • Une sécurité accrue signifie-t-elle moins d’intimité ?
  • L'IA est un outil, pas une solution

« Notre objectif est de faire en sorte qu'un enfant ne veuille jamais apporter une arme à feu à l'école », Suzy Loughlin, cofondatrice et conseillère en chef de Tempête de feu, une société de gestion de crise, a déclaré. À cette fin, en partenariat avec l'École de formation continue de l'Université d'Alabama, l'entreprise a développé un programme de prévention qui recherche les signes avant-coureurs chez les enfants susceptibles de risquer de commettre un crime à l'avenir actes violents.

Surnommée BERTHA, pour Behavioral Risk Threat Assessment Program, l’idée est née de la fusillade de masse de 2007 à Virginia Tech, au cours de laquelle 32 personnes ont été assassinées – l’une des plus meurtrières de l’histoire des États-Unis. La fusillade survenue en février à l'école secondaire Marjory Stoneman Douglas à Parkland, en Floride, qui a tué 17 personnes, a fait encore plus de victimes. l'attention portée à ce problème, soulignée à nouveau en mai par la fusillade du lycée de Santa Fe, au Texas, où 10 étudiants et enseignants ont été tués.

En rapport

  • L'IA qui détecte les émotions est là, et cela pourrait être lors de votre prochain entretien d'embauche
  • I.A. les assistants pédagogiques pourraient contribuer à combler les lacunes créées par les classes virtuelles
  • La liste des clients de Clearview AI a été volée. Son énorme base de données de visages pourrait-elle être la prochaine?

Victimes d'une fusillade dans une école depuis 1989, Source: Mère Jones

Incident Décès Blessé Nombre total de victimes Année
Fusillade au lycée de Santa Fe (Santa Fe, Texas) 10 13 23 2018
Fusillade au lycée Marjory Stoneman Douglas (Parkland, Floride) 17 14 31 2018
Tournage à l'Umpqua Community College (Roseburg, Oregon) 9 9 18 2015
Fusillade au lycée Marysville-Pilchuck (Marysville, Washington) 5 1 6 2014
Meurtre de masse à Isla Vista (Santa Barbara, Californie) 6 13 19 2014
Massacre de l'école élémentaire de Sandy Hook (Newtown, Connecticut) 27 2 29 2012
Meurtres de l'Université Oikos (Oakland, Californie) 7 3 10 2012
Tir à l'université du nord de l'Illinois (DeKalb, Illinois) 5 21 26 2008
Massacre de Virginia Tech (Blacksburg, Virginie) 32 23 55 2007
Fusillade dans une école amish (comté de Lancaster, Pennsylvanie) 6 5 11 2006
Massacre de Red Lake (Red Lake, Minnesota) 10 5 15 2005
Massacre du lycée Columbine (Littleton, Colorado) 13 24 37 1999
Fusillade au lycée de Thurston (Springfield, Oregon) 4 25 29 1998
Meurtres du Westside Middle School (Jonesboro, Arkansas) 5 10 15 1998
Fusillade au lycée de Lindhurst (Olivehurst, Californie) 4 10 14 1992
Tournage à l'Université de l'Iowa (Iowa City, Iowa) 6 1 7 1991
Tir dans la cour d'école de Stockton (Stockton, Californie) 6 29 35 1989

Le programme d'évaluation des risques est conçu comme un filet de sécurité pour attraper les enfants qui pourraient avoir besoin d'aide et d'intervention avant qu'ils ne deviennent suicidaires ou violents. Comme démontré après chaque incident précédent, les administrateurs, les parents et les élèves se demandent pourquoi les signes avant-coureurs, comme la cyberintimidation, les allusions aux armes à feu et les références à la fusillade du lycée Columbine dans le Colorado, en 1999, n'ont pas été remarquées plus tôt.

Utiliser l'IA pour rechercher des indices

Le défi réside dans la difficulté de passer au crible les montagnes de données générées dans les forums et les réseaux sociaux. comptes médiatiques pour trouver les quelques aiguilles qui pourraient alerter un conseiller scolaire ou un psychologue qu'un enfant se trouve dans inquiéter. Ainsi, pour filtrer ces indices en ligne, les administrateurs font appel à des outils d’intelligence artificielle.

"Notre objectif est de faire en sorte qu'un enfant ne veuille jamais apporter une arme à feu à l'école."

«Nous sommes la composante IA», a expliqué Mina Lux, fondatrice et PDG de Meelo Logic, basée à New York. Son entreprise travaille sur le programme BERTHA avec Firestorm pour effectuer le premier gros travail de tri à travers ce que l'on appelle désormais le big data. "Notre objectif est l'automatisation des connaissances pour comprendre le contexte."

Le logiciel de Meelo peut retracer les commentaires et les publications jusqu'à leur source d'origine. L’entreprise qualifie ce processus de raisonnement causal, mais cela s’apparente davantage à la recherche du patient zéro, l’individu initial au sujet duquel quelqu’un d’autre aurait pu exprimer ses inquiétudes.

"Habituellement, il y a une première explosion en ligne, et ils la rendent délibérément publique – cela peut être un appel à l'aide", a expliqué Hart Brown, directeur de l'exploitation de Firestorm. "Et dans 80 % des cas, au moins une autre personne le sait, donc même si le premier message est privé, quelqu'un d'autre le rendra probablement public."

comment l'IA peut collecter des indices pour empêcher de futures fusillades dans les écoles
comment l'IA peut collecter des indices pour empêcher de futures fusillades dans les écoles
comment l'IA peut collecter des indices pour empêcher de futures fusillades dans les écoles
comment l'IA peut collecter des indices pour empêcher de futures fusillades dans les écoles

Le programme d'IA fournit la sélection initiale, basée sur les termes d'argot utilisés, le contexte, l'emplacement et les liens associés. Ensuite, le tableau de bord BERTHA de Firestorm signale l’activité pour une éventuelle intervention. C’est là que les gens – conseillers, enseignants, psychologues – interviennent pour évaluer s’il existe une menace réelle. si un enfant a besoin d’une attention particulière parce qu’il manifeste de la colère ou des tendances suicidaires, ou si l’activité est bénin.

Le défi réside dans la difficulté de passer au crible les montagnes de données générées sur les forums et les réseaux sociaux.

"Mais personne n'est responsable de prendre la décision", a déclaré Brenda Truelove, administratrice du programme à l'Université. de l'Alabama qui a travaillé avec Firestorm sur le programme et un programme d'apprentissage en ligne associé destiné aux éducateurs de tout le pays. "Une personne peut manquer quelque chose, c'est donc une équipe de personnes qui décide quoi faire."

Truelove a noté que le programme s'appuie sur l'expérience d'enseignants, de psychologues légistes et d'autres experts pour créer une formule permettant de faire face aux crises potentielles.

Une sécurité accrue signifie-t-elle moins d’intimité ?

Alors que le potentiel de l’IA dans prévenir de futures fusillades dans les écoles Bien que prometteurs, ce suivi et cette analyse des données soulèvent inévitablement des inquiétudes quant à la confidentialité et à l’exactitude, et se demandent si la sécurité l’emporte sur toute préoccupation.

Bryce Albert, un élève de neuvième année du lycée Marjory Stoneman Douglas, se trouvait dans le couloir du troisième étage lorsque le tireur a commencé à tirer sur les élèves. Alors qu'Albert voyait le tueur arriver dans le couloir, un enseignant l'a laissé entrer dans une salle de classe et il a survécu. Depuis cette expérience, sa vision de la vie privée a changé.

Tempête de feu

"Avant, je me disais, ne rentre pas dans mes affaires", a déclaré Albert à Digital Trends, à propos des autorités qui surveillaient son utilisation des médias sociaux. "Mais maintenant, j'ai complètement changé d'avis."

Lux de Meelo a souligné que les programmes d’IA n’accèdent à aucun compte privé; toutes les informations sont publiques. Loughlin de Firestorm a souligné le fait qu’ils ne collectent ni ne stockent les données eux-mêmes. Il est géré par chaque école, qui a déjà de l’expérience dans la tenue des dossiers des élèves. (Firestorm facture des frais de licence de 2 500 $ par école, tandis que l'Université de l'Alabama propose un cours de formation en ligne gratuit pour les éducateurs de l'Alabama de la maternelle à la 12e année. Les écoles peuvent également travailler gratuitement sur leurs propres projets d’alerte précoce en utilisant la formule de base en neuf étapes de Firestorm pour établir de tels programmes.)

Lux reconnaît que les subtilités du langage, telles que le sarcasme, peuvent s'avérer difficiles pour toute recherche sur l'IA. Meelo se concentre sur l'analyse textuelle, plutôt que sur le type d'analyse d'image pratiqué par d'autres sociétés d'IA, comme Cortica, étude. Pourtant, il y a place à des interprétations erronées, même pour les participants humains.

"Il est difficile de ressentir des émotions en envoyant des SMS", a reconnu Albert.

D’un autre côté, un programme impartial ne privilégie pas les programmes et n’ignore pas les types de changements émotionnels ou comportementaux qui pourraient indiquer que des problèmes sont à venir.

L’IA n’est encore qu’un premier filtre ou outil pour arrêter de futures fusillades dans les écoles.

"En fin de compte, il peut être plus précis en éliminant autant de biais que possible", a déclaré Brown de Firestorm. Une personne ou un conseiller en ressources humaines peut minimiser les explosions émotionnelles d’une personne, par exemple en disant que cela arrive tout le temps. L'ordinateur qui ne clignote pas ne trouve aucune excuse de ce type.

"Mais il faut quand même une touche humaine pour aller jusqu'au bout, pour interviewer cette personne", a déclaré Brown. « L’ordinateur ne déterminera pas si cette personne doit être expulsée ou si elle a besoin de conseils. »

L'IA est un outil, pas une solution

Tous les experts avec lesquels Digital Trends s'est entretenu pour cette histoire ont souligné le fait que l'IA n'est encore qu'un premier filtre ou outil pour arrêter de futures fusillades dans les écoles. Il peut générer des alertes sur les enfants à risque, mais il ne peut pas dire aux éducateurs comment, quand ou même s’ils doivent intervenir. Les écoles ont toujours besoin de leur propre équipe d’experts – depuis les enseignants qui connaissent les élèves jusqu’aux psychologues – et elles continueront probablement à en avoir besoin.

"Les statistiques montrent qu'à chaque fusillade dans une école, la probabilité qu'une autre fusillade se produise est plus élevée", a déclaré Lux.

En fin de compte, l’élément humain est le facteur le plus important. "Parlez aux gens et demandez de l'aide", a déclaré Albert. "N'ayez pas peur de demander de l'aide."

Recommandations des rédacteurs

  • Lisez les « écritures synthétiques » étrangement belles d’un IA. qui pense que c'est Dieu
  • Pourquoi apprendre aux robots à jouer à cache-cache pourrait être la clé de l’IA de nouvelle génération
  • I.A. pourrait aider à détecter les signes révélateurs du coronavirus dans les radiographies des poumons
  • Filtrer par positivité: cette nouvelle A.I. pourrait détoxifier les fils de commentaires en ligne
  • IA intelligente les bodys pourraient révéler quand les bébés développent des problèmes de mobilité