Jak může umělá inteligence sbírat stopy, aby zabránila budoucím střelbám ve škole

Ve světle nedávných smrtelných školních střeleb ve Spojených státech hledají pedagogové, rodiče a bezpečnostní experti technologie, které by pomohly problém vyřešit. V popředí je využití umělá inteligence.

Obsah

  • Použití AI k hledání stop
  • Znamená zvýšená bezpečnost méně soukromí?
  • AI je nástroj, ne řešení

„Naším cílem je zajistit, aby dítě nikdy nechtělo nosit do školy zbraň,“ říká Suzy Loughlin, spoluzakladatelka a hlavní rada Ohnivá bouře, společnost zabývající se krizovým řízením, uvedla. Za tímto účelem společnost ve spolupráci s University of Alabama School of Continuing Education vyvinuli preventivní program, který hledá včasné varovné signály u dětí, které mohou být v budoucnu ohroženy spácháním násilné činy.

Nápad, přezdívaný BERTHA, pro Behavioral Risk Threat Assessment Programme, vyrostl z masové střelby na Virginia Tech v roce 2007, kdy bylo zavražděno 32 lidí – jedna z nejsmrtelnějších v historii USA. Únorová střelba na střední škole Marjory Stoneman Douglas v Parkland na Floridě, která zabila 17 lidí, přinesla další pozornost věnovaná tomuto problému, znovu podtržená v květnu střelbou na střední škole Santa Fe v Texasu, kde 10 studentů a učitelů byli zabiti.

Příbuzný

  • Snímání emocí A.I. je tady a mohlo by to být na vašem příštím pracovním pohovoru
  • A.I. asistenti pedagoga by mohli pomoci zaplnit mezery vytvořené virtuálními učebnami
  • Seznam klientů Clearview AI byl ukraden. Mohla by být další její masivní databáze tváří?

Oběti střelby ve školách od roku 1989, Zdroj: Matka Jonesová

Incident Smrtelné případy Zraněný Celkový počet obětí Rok
Střelba na střední škole v Santa Fe (Santa Fe, TX) 10 13 23 2018
Střelba na střední škole Marjory Stoneman Douglas (Parkland, Florida) 17 14 31 2018
Střelba na Umpqua Community College (Roseburg, Oregon) 9 9 18 2015
Střelba na střední škole Marysville-Pilchuck (Marysville, Washington) 5 1 6 2014
Masová vražda Isla Vista (Santa Barbara, Kalifornie) 6 13 19 2014
Masakr na základní škole Sandy Hook (Newtown, Connecticut) 27 2 29 2012
Vraždy na univerzitě Oikos (Oakland, Kalifornie) 7 3 10 2012
Střelba na univerzitě v Severním Illinois (DeKalb, Illinois) 5 21 26 2008
Virginia Tech masakr (Blacksburg, Virginie) 32 23 55 2007
Střelba ve škole Amish (Lancaster County, Pennsylvania) 6 5 11 2006
Masakr Red Lake (Red Lake, Minnesota) 10 5 15 2005
Masakr na střední škole v Columbine (Littleton, Colorado) 13 24 37 1999
Střelba na střední škole Thurston (Springfield, Oregon) 4 25 29 1998
Vraždy na střední škole Westside (Jonesboro, Arkansas) 5 10 15 1998
Střelba na střední škole Lindhurst (Olivehurst, Kalifornie) 4 10 14 1992
Střelba na University of Iowa (Iowa City, Iowa) 6 1 7 1991
Stockton školní střelba (Stockton, Kalifornie) 6 29 35 1989

Program hodnocení rizik je koncipován jako záchranná síť k zachycení dětí, které mohou potřebovat pomoc a zásah, než se stanou sebevražednými nebo násilnými. Jak bylo ukázáno po každém předchozím incidentu, správci, rodiče a studenti se diví, proč jsou varovné signály – jako kyberšikana, narážky na zbraně a zmínky o střelbě na střední škole Columbine v Coloradu v roce 1999 – nebyly zaznamenány dříve.

Použití AI k hledání stop

Výzvou byla obtížnost probírat se horami dat generovaných na fórech a sociálních sítích mediální účty, abyste našli těch pár jehel, které by mohly upozornit školního poradce nebo psychologa, že se dítě nachází problémy. Aby administrátoři odfiltrovali takové stopy online, používají nástroje umělé inteligence.

"Naším cílem je zajistit, aby dítě nikdy nechtělo nosit do školy zbraň."

„Jsme součástí umělé inteligence,“ vysvětlila Mina Lux, zakladatelka a generální ředitelka společnosti Meelo Logic se sídlem v New Yorku. Její společnost pracuje na programu BERTHA s Firestormem, aby provedla počáteční těžké třídění toho, co se stalo známým jako velká data. "Naším cílem je automatizace znalostí, abychom pochopili kontext."

Software Meelo dokáže vysledovat komentáře a příspěvky zpět k jejich původnímu zdroji. Společnost tento proces označuje jako kauzální uvažování, ale je to spíše analogické k nalezení pacienta nula, původního jedince, o kterém mohl někdo jiný vyjádřit obavy.

"Obvykle dojde k počátečnímu výbuchu online a záměrně to zveřejní - může to být volání o pomoc," vysvětlil Hart Brown, COO Firestorm. "A v 80 procentech případů to ví alespoň jedna další osoba, takže i když je první příspěvek soukromý, někdo jiný ho pravděpodobně zveřejní."

jak ai může sbírat stopy, aby se zabránilo budoucím střelbám ve školách, protest proti střelbě ve školách 1
jak ai může sbírat stopy, aby se zabránilo budoucím střelbám ve školách, protest proti střelbě ve školách 3
jak ai může sbírat stopy, aby se zabránilo budoucím střelbám ve školách, protest proti střelbě ve školách 2
jak ai může sbírat stopy, aby se zabránilo budoucím střelbám ve školách, protest proti střelbě ve školách 4

Program AI poskytuje počáteční screening na základě použitých slangových výrazů, kontextu, umístění a souvisejících odkazů. Poté řídicí panel BERTHA společnosti Firestorm označí aktivitu pro možný zásah. To je místo, kde lidé – poradci, učitelé, psychologové – zasahují, aby posoudili, zda existuje skutečná hrozba, zda dítě potřebuje zvláštní pozornost, protože projevuje hněv nebo sebevražedné sklony, nebo zda se jedná o aktivitu benigní.

Výzvou byla obtížnost probírat se horami dat generovaných na fórech a sociálních médiích.

"Ale nikdo není zodpovědný za rozhodnutí," řekla Brenda Truelove, programová administrátorka na univerzitě z Alabamy, který spolupracoval s Firestorm na programu a souvisejícím e-learningovém programu pro pedagogy po celé zemi. "Jeden člověk může něco přehlédnout, takže je to tým lidí, kteří rozhodují, co dělat."

Truelove poznamenal, že program je založen na zkušenostech učitelů, forenzních psychologů a dalších odborníků, aby vytvořil vzorec pro řešení potenciálních krizí.

Znamená zvýšená bezpečnost méně soukromí?

Zatímco potenciál AI v zabránit budoucím střelbám na školách může být slibné, takové sledování a analýza dat vyvolávají nevyhnutelné obavy o soukromí a přesnost a zda bezpečnost převažuje nad nějakými obavami.

Bryce Albert, student deváté třídy na střední škole Marjory Stoneman Douglasové, byl na chodbě ve třetím patře, když střelec začal střílet do studentů. Když Albert viděl vraha přicházet chodbou, učitel ho pustil do třídy a on přežil. Od té doby změnil názor na soukromí.

Ohnivá bouře

„Předtím jsem si říkal, nepouštěj se do mých věcí,“ řekl Albert Digital Trends o úřadech sledujících jeho používání sociálních sítí. "Ale teď jsem úplně změnil názor."

Meelo’s Lux zdůraznil, že programy AI nemají přístup k žádným soukromým účtům; všechny informace jsou veřejné. Firestorm’s Loughlin zdůraznil skutečnost, že sami data neshromažďují ani neukládají. Je spravován jednotlivými školami, které již mají zkušenosti s vedením žákovských záznamů. (Firestorm účtuje licenční poplatek 2 500 $ za školu, zatímco University of Alabama nabízí bezplatný online školicí kurz pro pedagogy Alabamy K-12. Školy mohou také zdarma pracovat na svých vlastních projektech včasného varování pomocí základního devítikrokového vzorce Firestorm pro vytvoření takových programů.)

Lux uznává, že jemné řeči, jako je sarkasmus, se mohou ukázat jako náročné pro jakýkoli výzkum AI. Meelo se zaměřuje na textovou analýzu, spíše než na analýzu obrazu jiných společností AI, jako Cortica, studovat. Přesto existuje prostor pro nesprávnou interpretaci i pro lidské účastníky.

"Je těžké získat emoce prostřednictvím textových zpráv," uznal Albert.

Na druhou stranu, nezaujatý program si nehraje na oblíbence ani neignoruje druhy emocionálních nebo behaviorálních změn, které by mohly naznačovat, že problémy jsou před námi.

Umělá inteligence je stále pouze počátečním filtrem nebo nástrojem k zastavení budoucích školních střeleb.

"V konečném důsledku to může být přesnější, pokud odstraníte co největší zkreslení," řekl Brown z Firestorm. Personalista nebo poradce může minimalizovat emocionální výbuchy člověka, například říct, že se to děje neustále. Neblikající počítač nic takového neomlouvá.

"Ale stále to vyžaduje lidský dotek, abychom to dotáhli do ústraní a vyslechli toho člověka," řekl Brown. "Počítač nezjistí, zda je třeba tuto osobu vyloučit nebo zda potřebuje radu."

AI je nástroj, ne řešení

Všichni experti Digital Trends, se kterými pro tento příběh hovořili, zdůraznili skutečnost, že umělá inteligence je stále pouze počátečním filtrem nebo nástrojem k zastavení budoucích střeleb na školách. Může generovat výstrahy o ohrožených dětech, ale nemůže říci pedagogům, jak, kdy a dokonce ani jestli by měli zasáhnout. Školy stále potřebují vlastní tým odborníků – od učitelů, kteří studenty znají, až po psychology – a pravděpodobně je budou potřebovat i nadále.

"Statistiky ukazují, že s každou střelbou ve škole, která se stane, je vyšší pravděpodobnost, že dojde k další střelbě ve škole," řekl Lux.

Nejdůležitějším faktorem je nakonec lidský prvek. "Mluv s lidmi a požádej o pomoc," řekl Albert. "Neboj se požádat o pomoc."

Doporučení redakce

  • Přečtěte si děsivě krásné ‚syntetické písmo‘ A.I. který si myslí, že je to Bůh
  • Proč učit roboty hrát na schovávanou by mohlo být klíčem k next-gen A.I.
  • A.I. by mohly pomoci odhalit výmluvné známky koronaviru na rentgenových snímcích plic
  • Filtrovat podle pozitivity: Tato nová A.I. mohla detoxikovat vlákna online komentářů
  • Smart A.I. body by mohly odhalit, kdy se u dětí objevují problémy s pohyblivostí