În lumina recentelor împușcături mortale în școli din Statele Unite, educatorii, părinții și experții în securitate caută tehnologie pentru a ajuta la rezolvarea problemei. În prim plan se află utilizarea inteligenţă artificială.
Cuprins
- Folosind AI pentru a căuta indicii
- O siguranță sporită înseamnă mai puțină confidențialitate?
- AI este un instrument, nu o soluție
„Scopul nostru este să ne asigurăm că un copil nu vrea niciodată să aducă o armă la școală”, Suzy Loughlin, co-fondatoare și consiliu șef al Furtună de foc, o firmă de gestionare a crizelor, a spus. În acest scop, în parteneriat cu Școala de Educație Continuă a Universității din Alabama, compania are a dezvoltat un program de prevenire care caută semne de avertizare timpurie la copiii care ar putea fi expuși riscului de a comite pe viitor. acte violente.
Supranumită BERTHA, pentru Programul de Evaluare a Riscurilor Comportamentale a Amenințărilor, ideea a apărut în urma împușcăturii în masă din 2007 de la Virginia Tech, când 32 de persoane au fost ucise – una dintre cele mai mortale din istoria Statelor Unite. Foșcătura din februarie de la liceul Marjory Stoneman Douglas din Parkland, Florida, care a ucis 17 persoane, a adus mai multe atenție la această problemă, subliniată din nou în mai, de împușcătura din liceul Santa Fe din Texas, unde 10 elevi și profesori au fost uciși.
Legate de
- A.I. care sesizează emoții. este aici și ar putea fi la următorul interviu de angajare
- A.I. asistenții didactici ar putea ajuta la completarea golurilor create de sălile de clasă virtuale
- Lista de clienți Clearview AI a fost furată. Ar putea fi următoarea baza de date masivă a fețelor?
Victime de împușcături în școală din 1989, Sursă: Mama Jones
Incident | Decese | Rănit | Total Victime | An |
împușcare la liceul Santa Fe (Santa Fe, TX) | 10 | 13 | 23 | 2018 |
împușcare la liceul Marjory Stoneman Douglas (Parkland, Florida) | 17 | 14 | 31 | 2018 |
împușcare la Umpqua Community College (Roseburg, Oregon) | 9 | 9 | 18 | 2015 |
împușcare la liceul Marysville-Pilchuck (Marysville, Washington) | 5 | 1 | 6 | 2014 |
Crimă în masă din Isla Vista (Santa Barbara, California) | 6 | 13 | 19 | 2014 |
Masacrul elementar Sandy Hook (Newtown, Connecticut) | 27 | 2 | 29 | 2012 |
Uciderile Universității Oikos (Oakland, California) | 7 | 3 | 10 | 2012 |
împușcare la Universitatea Northern Illinois (DeKalb, Illinois) | 5 | 21 | 26 | 2008 |
Masacrul Virginia Tech (Blacksburg, Virginia) | 32 | 23 | 55 | 2007 |
împușcătură în școala Amish (Comitatul Lancaster, Pennsylvania) | 6 | 5 | 11 | 2006 |
Masacrul Red Lake (Red Lake, Minnesota) | 10 | 5 | 15 | 2005 |
Masacrul de la liceul Columbine (Littleton, Colorado) | 13 | 24 | 37 | 1999 |
împușcătură la liceul Thurston (Springfield, Oregon) | 4 | 25 | 29 | 1998 |
Crime din Westside Middle School (Jonesboro, Arkansas) | 5 | 10 | 15 | 1998 |
împușcare la liceul Lindhurst (Olivehurst, California) | 4 | 10 | 14 | 1992 |
împușcare la Universitatea din Iowa (Iowa City, Iowa) | 6 | 1 | 7 | 1991 |
împușcătură în curtea școlii din Stockton (Stockton, California) | 6 | 29 | 35 | 1989 |
Programul de evaluare a riscurilor este conceput ca o plasă de siguranță pentru a prinde copiii care ar putea avea nevoie de ajutor și intervenție înainte ca aceștia să devină sinucigași sau violenți. După cum sa demonstrat după fiecare incident anterior, administratorii, părinții și studenții se întreabă de ce semnele de avertizare timpurie - cum ar fi hărțuirea cibernetică, aluziile la arme și referirile la împușcătura de la liceul Columbine din Colorado, în 1999, nu au fost observate mai devreme.
Folosind AI pentru a căuta indicii
Provocarea a fost dificultatea de a parcurge munții de date generate pe forumuri și sociale conturi media pentru a găsi cele câteva ace care ar putea alerta un consilier școlar sau un psiholog în care se află un copil necaz. Deci, pentru a filtra astfel de indicii online, administratorii apelează la instrumente de inteligență artificială.
„Scopul nostru este să ne asigurăm că un copil nu vrea niciodată să aducă o armă la școală.”
„Suntem componenta AI”, a explicat Mina Lux, fondatorul și CEO-ul Meelo Logic din New York. Compania ei lucrează la programul BERTHA împreună cu Firestorm pentru a efectua operațiunile grele inițiale de sortare prin ceea ce a devenit cunoscut sub numele de date mari. „Accentul nostru este automatizarea cunoștințelor pentru a înțelege contextul.”
Software-ul Meelo poate urmări comentariile și postările înapoi la sursa lor originală. Compania se referă la proces ca raționament cauzal, dar este mai analog cu găsirea pacientului zero, individul original despre care altcineva și-ar fi exprimat îngrijorarea.
„De obicei, există o izbucnire inițială online și o fac publică intenționat – poate fi un apel la ajutor”, a explicat Hart Brown, COO al Firestorm. „Și în 80 la sută din cazuri, cel puțin o altă persoană știe, așa că, chiar dacă prima postare este privată, este posibil ca altcineva să o facă publică.”
Programul AI oferă screening-ul inițial, bazat pe termenii argou utilizați, context, locație și link-uri conexe. Apoi, tabloul de bord BERTHA al Firestorm semnalează activitatea pentru o posibilă intervenție. Acolo intervin oamenii – consilieri, profesori, psihologi – pentru a evalua dacă există o amenințare reală, dacă un copil are nevoie de atenție suplimentară pentru că manifestă furie sau tendințe suicidare sau dacă activitatea este benignă.
Provocarea a fost dificultatea de a verifica munții de date generate pe forumuri și rețelele sociale.
„Dar nicio persoană nu este responsabilă pentru luarea deciziei”, a spus Brenda Truelove, administrator de program la Universitate din Alabama, care a lucrat cu Firestorm la program și la un program de e-learning asociat pentru educatori din întreaga țară. „O persoană poate să rateze ceva, așa că este o echipă de oameni care decide ce să facă.”
Truelove a remarcat că programul se bazează pe experiența profesorilor, a psihologilor legiști și a altor experți pentru a crea o formulă pentru a face față potențialelor crize.
O siguranță sporită înseamnă mai puțină confidențialitate?
În timp ce potențialul AI în prevenirea viitoarelor împușcături în școli poate fi promițătoare, astfel de urmărire și analiză a datelor ridică îngrijorări inevitabile cu privire la confidențialitate și acuratețe și dacă siguranța prevalează asupra oricăror preocupări.
Bryce Albert, un elev în clasa a IX-a la liceul Marjory Stoneman Douglas, se afla pe holul de la etajul trei când trăgătorul a început să tragă în elevi. Când Albert l-a văzut pe ucigaș venind pe hol, un profesor l-a lăsat pe Albert să intre într-o clasă și a supraviețuit. De la acea experiență, el a avut o schimbare de gândire despre confidențialitate.
„Înainte, am fost de genul, nu intra în treburile mele”, a spus Albert pentru Digital Trends, despre autoritățile care îi urmăresc utilizarea rețelelor sociale. „Dar acum, m-am răzgândit total.”
Meelo’s Lux a subliniat că programele AI nu accesează niciun cont privat; toate informatiile sunt publice. Loughlin de la Firestorm a subliniat faptul că nu colectează sau stochează datele ei înșiși. Este întreținut de școlile individuale, care au deja experiență în păstrarea evidențelor elevilor. (Firestorm percepe o taxă de licență de 2.500 USD per școală, în timp ce Universitatea din Alabama oferă un curs de formare online gratuit pentru educatorii din Alabama K-12. De asemenea, școlile pot lucra gratuit la propriile proiecte de avertizare timpurie folosind formula de bază în nouă pași a Firestorm pentru a stabili astfel de programe.)
Lux recunoaște că subtilitățile limbajului, cum ar fi sarcasmul, se pot dovedi provocatoare pentru orice cercetare AI. Meelo se concentrează pe analiza textuală, mai degrabă decât pe tipul de analiză a imaginii altor companii AI, ca Cortica, studiază. Totuși, există loc de interpretare greșită chiar și pentru participanții umani.
„Este greu să obții emoții prin mesaje”, a recunoscut Albert.
Pe de altă parte, un program lipsit de pasiune nu joacă favorite și nu ignoră tipurile de schimbări emoționale sau comportamentale care ar putea indica faptul că problemele urmează.
AI este încă doar un filtru sau un instrument inițial pentru a opri viitoarele împușcături în școli.
„În cele din urmă, poate fi mai precis prin eliminarea cât mai multă părtinire posibil”, a spus Brown’s Firestorm. O persoană sau un consilier de resurse umane ar putea minimiza izbucnirile emoționale ale unei persoane, de exemplu, spunând că se întâmplă tot timpul. Computerul care nu clipește nu oferă astfel de scuze.
„Dar este nevoie de o atingere umană pentru a urma, pentru a intervieva acea persoană”, a spus Brown. „Computerul nu va determina dacă persoana respectivă trebuie expulzată sau dacă are nevoie de consiliere.”
AI este un instrument, nu o soluție
Toți experții cu care a vorbit Digital Trends pentru această poveste au subliniat faptul că AI este încă doar un filtru sau un instrument inițial pentru a opri viitoarele împușcături în școli. Poate genera alerte despre copiii expuși riscului, dar nu poate spune educatorilor cum, când sau chiar dacă ar trebui să intervină. Școlile au nevoie în continuare de propria lor echipă de experți – de la profesori care îi cunosc pe elevi până la psihologi – și probabil că vor continua să aibă nevoie de ei.
„Statisticile arată că cu fiecare împușcătură în școală care are loc, există o probabilitate mai mare ca o altă împușcătură în școală să se întâmple”, a spus Lux.
În cele din urmă, elementul uman este cel mai important factor. „Vorbește cu oamenii și cere ajutor”, a spus Albert. „Nu-ți fie frică să ceri ajutor.”
Recomandările editorilor
- Citiți „scriptura sintetică” ciudat de frumoasă a unui A.I. care crede că este Dumnezeu
- De ce învățarea roboților să joace de-a v-ați ascunselea ar putea fi cheia pentru I.A. de nouă generație.
- A.I. ar putea ajuta la identificarea semnelor revelatoare ale coronavirusului în razele X pulmonare
- Filtrați după pozitivitate: Acest nou A.I. ar putea detoxifica firele de comentarii online
- Smart A.I. body-urile ar putea dezvălui când bebelușii dezvoltă probleme de mobilitate