Vai uz A.I. balstīta novērošana varētu paredzēt noziedzību, pirms tas notiek?

Mākslīgā intelekta programmas apsola darīt visu, sākot no laikapstākļu prognozēšanas līdz autonomo automašīnu pilotēšanai. Tagad mākslīgais intelekts tiek izmantots videonovērošanas sistēmās, solot novērst noziedzīgas darbības, nevis atklājot notiekošos noziegumus, bet gan identificējot noziegumu, pirms tas notiek. Mērķis ir novērst vardarbību, piemēram, seksuālus uzbrukumus, taču tas varētu būt iespējams apbrīnojami nodomi pārvērsties par Mazākuma ziņojums-stila pirmsnoziedzības murgi?

Šāda iespēja var šķist sižeta līnija no epizodes Melnais spogulis, taču tas vairs nav zinātniskās fantastikas saturs. Cortica, Izraēlas uzņēmums ar dziļām saknēm drošības un AI pētījumi, nesen izveidoja partnerību Indijā ar Best Group, lai analizētu datu straumēšanas terabaitus no videonovērošanas kamerām publiskās vietās. Viens no mērķiem ir uzlabot drošību sabiedriskās vietās, piemēram, pilsētas ielās, autobusu pieturās, dzelzceļa stacijās.

Tas jau ir ierasts, ka tiesībaizsardzības iestādes tādās pilsētās kā Londona un Ņujorka to dara

izmantot sejas atpazīšanu un numura zīmes saskaņošana kā daļa no viņu videokameru novērošanas. Taču Cortica AI sola to virzīt daudz tālāk, meklējot “uzvedības anomālijas”, kas norāda, ka kāds gatavojas pastrādāt vardarbīgu noziegumu.

Programmatūra ir balstīta uz militāro un valdības drošības pārbaudes sistēmu veidu, kas mēģina identificēt teroristus, veicot uzraudzību cilvēki reāllaikā, meklējot tā sauktās mikroizteiksmes — nelielas raustīšanās vai manieres, kas var atspēkot cilvēka nekrietnību nodomiem. Šādas signālzīmes ir tik mazas, ka tās var izvairīties no pieredzējuša detektīva, bet ne no nemirkšķinātās mākslīgā intelekta acs.

Sanāksmē Telavivā pirms darījuma paziņošanas līdzdibinātāja un COO Karina Odinajeva paskaidroja, ka Cortica programmatūra ir paredzēts, lai risinātu problēmas, kas saistītas ar objektu identificēšanu, kurus nav viegli klasificēt saskaņā ar tradicionālajiem stereotipiem. Viens piemērs, ko Odinajevs aprakstīja iesaistītajā stūra futrāļi (piemēram, gulta, kas nokrīt no kravas automašīnas uz šosejas), ar kurām saskaras braukšanas situācijās, precīzi tādi unikāli notikumi, ar kuriem būs jāspēj darboties programmām, kas kontrolē autonomas automašīnas nākotnē.

"Tam jums ir nepieciešama nekontrolēta mācīšanās," sacīja Odinajevs. Citiem vārdiem sakot, programmatūrai ir jāmācās tāpat kā cilvēkiem.

Dodoties tieši uz smadzenēm

Cortica AI programmatūra monitori cilvēki reāllaikā, meklējot mikroizteiksmes — sīkas raustīšanās vai manieres, kas var atspēkot cilvēka negodīgos nodomus.

Lai izveidotu šādu programmu, Cortica negāja neironu tīkla maršruts (kas, neskatoties uz nosaukumu, ir balstīts uz varbūtībām un skaitļošanas modeļiem, nevis uz to, kā faktiski darbojas smadzenes). Tā vietā Cortica devās uz avotu, šajā gadījumā žurkas smadzeņu garozas segmentu. Saglabājot smadzeņu gabalu dzīvu ex vivo (ārpus ķermeņa) un savienojot to ar mikroelektrodu bloku, Cortica varēja izpētīt, kā garoza reaģē uz konkrētiem stimuliem. Pārraugot elektriskos signālus, pētnieki varēja identificēt noteiktas neironu grupas, ko sauc par klikām, kas apstrādāja īpašus jēdzienus. No turienes uzņēmums izveidoja parakstu failus un matemātiskos modeļus, lai modelētu sākotnējos procesus smadzenēs.

Rezultāts, saskaņā ar Cortica, ir pieeja AI, kas ļauj uzlabot mācīšanos, vienlaikus saglabājot pārredzamību. Citiem vārdiem sakot, ja sistēma pieļauj kļūdu — teiksim, tā maldīgi paredz, ka drīz sāksies dumpis vai priekšā braucoša automašīna. izvelciet no piebraucamā ceļa — programmētāji var viegli izsekot problēmai līdz procesam vai paraksta failam, kas ir atbildīgs par kļūdainu spriedums. (Salīdziniet to ar tā sauktajiem dziļās mācīšanās neironu tīkliem, kas būtībā ir melnās kastes un, iespējams, būs pilnībā jāapmāca, ja tie pieļauj kļūdu.)

Sākotnēji Cortica autonomo AI izmantos Best Group Indijā, lai analizētu milzīgo datu apjomu, ko publiskās vietās rada kameras, lai uzlabotu drošību un efektivitāti. Best Group ir daudzveidīgs uzņēmums, kas nodarbojas ar infrastruktūras attīstību un nozīmīgs piegādātājs valsts un būvniecības klientiem. Tāpēc tā vēlas uzzināt, kā noteikt, kad viss norit gludi un kad ne.

Displejs, kurā redzama sejas atpazīšanas sistēma tiesībaizsardzības iestādēm NVIDIA GPU tehnoloģiju konferences laikā, kurā tiek demonstrēta AI, dziļā mācīšanās, virtuālā realitāte un autonomās mašīnas.Sauls Lēbs/AFP/Getty Images

Taču ir cerība, ka Cortica programmatūra nākotnē darīs daudz vairāk. To varētu izmantot nākotnes robotaksē, lai, piemēram, uzraudzītu pasažieru uzvedību un novērstu seksuālus uzbrukumus. Cortica programmatūra var arī apvienot datus ne tikai no videokamerām, bet arī no droniem un satelītiem. Un tā var iemācīties spriest par uzvedības atšķirībām, ne tikai starp likumpaklausīgiem pilsoņiem un agrākajiem noziedzniekiem, bet arī starp mierīgu pārpildītu tirgu un politisko demonstrāciju, kas drīz mainīsies vardarbīgs.

Šāda paredzama informācija ļautu pilsētai izvietot tiesībaizsardzības iestādes potenciāli bīstamā situācijā, pirms tiek zaudētas dzīvības. Tomēr nepareizajās rokās to var arī ļaunprātīgi izmantot. Piemēram, despotisks režīms varētu izmantot šādu informāciju, lai apspiestu domstarpības un arestētu cilvēkus, pirms viņiem pat bija iespēja organizēt protestu.

Prognozējošā noziedzības programmatūra ļautu pilsētai izvietot tiesībaizsardzības iestādes potenciāli bīstamā situācijā, pirms tiek zaudētas dzīvības. Tomēr nepareizajās rokās to var arī ļaunprātīgi izmantot.

Ņujorkā, demonstrējot, kā Cortica autonomais AI tiek izmantots autonomām automašīnām, Cortica viceprezidents Patriks Flinns paskaidroja, ka uzņēmums koncentrējas uz programmatūras efektīvu un uzticamu padarīšanu, lai nodrošinātu visprecīzākos klasifikācijas datus. iespējams. Tas, ko klienti dara ar šo informāciju — piemēram, aptur automašīnu vai liek tai paātrināt, lai izvairītos no negadījuma — ir viņu ziņā. Tas pats attiektos uz to, kā pilsēta vai valdība varētu piešķirt policijas resursus.

"Politikas lēmumi ir stingri ārpus Kortikas apgabala," sacīja Flinns.

Vai mēs atteiktos no privātuma, lai uzlabotu drošību?

Tomēr mākslīgā intelekta savienošana ar tīkliem, kas ir visuresoši tīmekļa kameru, sāk radīt lielāku satraukumu par privātumu un personīgo brīvību. Un cilvēki uztraucas ne tikai par ārvalstu despotiskām valdībām.

Ņūorleānā mērs Mičs Landrī ir ierosinājis 40 miljonu dolāru noziedzības apkarošanas uzraudzības plānu, kas ietver pašvaldību kameru savienošana ar tiešraidēm no privātām tīmekļa kamerām, kuras pārvalda uzņēmumi un privātpersonām. Priekšlikums jau ir izraisījis imigrantu darbinieku protestus, kas ir nobažījušies par to, ka federālās imigrācijas amatpersonas izmantos kameras, lai nomedītu un deportētu strādniekus bez dokumentiem.

Algoritms, kas palīdz policijai paredzēt noziegumus | Mach | NBC ziņas

Tikmēr, piemēram, subjekti, kas iesprostoti a Melnais spogulis Pasaulē patērētāji, iespējams, jau neapzināti pakļaujas šādai AI vadītai uzraudzībai. Google 249 $ Videoklipu kamera, piemēram, izmanto elementāru mākslīgā intelekta formu, lai automātiski uzņemtu attēlus, kad redz kaut ko, ko uzskata par nozīmīgu. Amazon, kura Alexa jau ir noklausīšanās paranojas priekšmets, ir iegādājies populāro video durvju zvanu uzņēmumu Ring. GE Appliances arī plāno debitēt ar videokameru aprīkotu centrmezglu virtuvēm vēlāk šogad. Eiropā Electrolux šogad debitēs tvaika cepeškrāsnī ar iebūvētu tīmekļa kameru.

Kamēr šīs tehnoloģijas rada Lielā brāļa rēgu uzraudzīt katru mūsu kustību, joprojām pastāv slavējama cerība, ka, izmantojot izsmalcināts AI piemēram, Cortica programma varētu uzlabot drošību, efektivitāti un glābt dzīvības. Nevar nedomāt, piemēram, kas būtu noticis, ja šāda tehnoloģija būtu pieejama un izmantota Uber, ko 19 gadus vecais Nikolass Krūzs paņēma ceļā, lai noslepkavotu 17 cilvēkus Marjory Stoneman Douglas High. Skola. Uber vadītājs Krūzā neko nepareizu nepamanīja, taču vai AI aprīkota kamera varēja atklāt mikroizteiksmes, kas atklāj viņa nodomus, un brīdināja policiju? Nākotnē mēs, iespējams, uzzināsim.