Artificiell intelligens-program lovar att göra allt, från att förutsäga vädret till att styra självkörande bilar. Nu tillämpas AI på videoövervakningssystem, och lovar att motverka kriminell aktivitet, inte genom att upptäcka pågående brott utan genom att identifiera ett brott – innan det inträffar. Målet är att förebygga våld som sexuella övergrepp, men skulle kunna sådana beundransvärda avsikter bli till Minoritetsrapportmardrömmar före brottet?
En sådan möjlighet kan verka som en handlingslinje från ett avsnitt av Svart spegel, men det är inte längre science fiction. Cortica, ett israeliskt företag med djupa rötter inom säkerhet och AI-forskning, nyligen bildade ett partnerskap i Indien med Best Group för att analysera terabyte dataströmmar från CCTV-kameror i offentliga utrymmen. Ett av målen är att förbättra säkerheten på offentliga platser, som stadsgator, busshållplatser och tågstationer.
Det är redan vanligt att brottsbekämpande myndigheter i städer som London och New York gör det
använda ansiktsigenkänning och registreringsskyltmatchning som en del av deras videokameraövervakning. Men Corticas AI lovar att ta det mycket längre genom att leta efter "beteendeavvikelser" som signalerar att någon är på väg att begå ett våldsbrott.Mjukvaran är baserad på den typ av militära och statliga säkerhetskontrollsystem som försöker identifiera terrorister genom övervakning människor i realtid, letar efter så kallade mikrouttryck - små ryckningar eller manér som kan förneka en persons elakhet avsikter. Sådana avslöjande tecken är så små att de kan undgå en erfaren detektiv men inte AI: s oblinkande öga.
Vid ett möte i Tel Aviv innan affären offentliggjordes förklarade medgrundaren och COO Karina Odinaev att Corticas mjukvara är avsett att ta itu med utmaningar med att identifiera föremål som inte lätt klassificeras enligt traditionella stereotyper. Ett exempel som Odinaev beskrev involverade hörnfodral (som en säng som faller av en lastbil på motorvägen) som man stöter på i körsituationer, just den sortens unika händelser som program som styr autonoma bilar måste kunna hantera i framtida.
"För det behöver du oövervakat lärande," sa Odinaev. Med andra ord måste programvaran lära sig på samma sätt som människor lär sig.
Går direkt till hjärnan
Corticas AI-programvara övervakar människor i realtid, letar efter mikrouttryck – små ryckningar eller manér som kan motsäga en persons elaka avsikter.
För att skapa ett sådant program gick Cortica inte till neurala nätverksvägar (som trots sitt namn är baserad på sannolikheter och beräkningsmodeller snarare än hur faktiska hjärnor fungerar). Istället gick Cortica till källan, i det här fallet ett kortikalt segment av en råttas hjärna. Genom att hålla en bit hjärna vid liv ex vivo (utanför kroppen) och koppla den till en mikroelektroduppsättning, kunde Cortica studera hur cortex reagerade på särskilda stimuli. Genom att övervaka de elektriska signalerna kunde forskarna identifiera specifika grupper av neuroner som kallas klickar som bearbetade specifika koncept. Därifrån byggde företaget signaturfiler och matematiska modeller för att simulera de ursprungliga processerna i hjärnan.
Resultatet, enligt Cortica, är ett förhållningssätt till AI som möjliggör avancerad inlärning samtidigt som den förblir transparent. Med andra ord, om systemet gör ett misstag - säg att det felaktigt förutser att ett upplopp är på väg att bryta ut eller att en bil framför är på väg att dra ut från en uppfart - programmerare kan enkelt spåra problemet tillbaka till processen eller signaturfilen som är ansvarig för det felaktiga dom. (Själa detta med så kallade neurala nätverk för djupinlärning, som i huvudsak är svarta lådor och kan behöva tränas om helt om de gör ett misstag.)
Inledningsvis kommer Corticas autonoma AI att användas av Best Group i Indien för att analysera de enorma mängderna data som genereras av kameror på offentliga platser för att förbättra säkerheten och effektiviteten. Best Group är ett diversifierat företag involverat i infrastrukturutveckling och en stor leverantör till myndigheter och byggkunder. Så den vill lära sig att se när saker och ting fungerar smidigt – och när de inte gör det.
Men förhoppningen är att Corticas programvara kommer att göra betydligt mer i framtiden. Det skulle kunna användas i framtida robotaxis för att till exempel övervaka passagerarnas beteende och förhindra sexuella övergrepp. Corticas programvara kan också kombinera data inte bara från videokameror utan också från drönare och satelliter. Och det kan lära sig att bedöma beteendeskillnader, inte bara mellan laglydiga medborgare och tidigare brottslingar, men också mellan en fredlig trång marknad och en politisk demonstration som är på väg att vända våldsam.
Sådan förutsägande information skulle göra det möjligt för en stad att sätta in brottsbekämpning i en potentiellt farlig situation innan liv går förlorade. Men i fel händer kan den också missbrukas. En despotisk regim kan till exempel använda sådan information för att undertrycka oliktänkande och arrestera människor innan de ens hade en chans att organisera en protest.
Programvara för förutsägande brott skulle göra det möjligt för en stad att sätta in brottsbekämpning i en potentiellt farlig situation innan liv går förlorade. Men i fel händer kan den också missbrukas.
I New York City, under en demonstration av hur Corticas Autonomous AI används på autonoma bilar, Corticas vicepresident, Patrick Flynn, förklarade att företaget är fokuserat på att göra programvaran effektiv och tillförlitlig för att leverera de mest exakta klassificeringsdata möjlig. Vad kunderna gör med den informationen – stoppa en bil eller få den att snabba upp till exempel för att undvika en olycka – är upp till dem. Detsamma skulle gälla hur en stad eller regering kan fördela polisresurser.
"De politiska besluten ligger strikt utanför Corticas område," sa Flynn.
Skulle vi ge upp integritet för förbättrad säkerhet?
Ändå börjar AI: s äktenskap med nätverk som är allestädes närvarande av webbkameror skapa mer oro för integritet och personlig frihet. Och det är inte bara utländska despotiska regeringar som folk är oroliga för.
I New Orleans har borgmästare Mitch Landrieu föreslagit en övervakningsplan för brottsbekämpning på 40 miljoner dollar, som inkluderar nätverk tillsammans kommunala kameror med live-flöden från privata webbkameror som drivs av företag och individer. Förslaget har redan väckt offentliga protester från invandrararbetare som är oroade över att federala immigrationstjänstemän kommer att använda kamerorna för att jaga papperslösa arbetare och utvisa dem.
Algoritm som hjälper polisen att förutsäga brott | Mach | NBC News
Samtidigt, som ämnen fångade i en Svart spegel världen kan konsumenter redan omedvetet utsätta sig för sådan AI-driven övervakning. Googles $249 Klipp kamera, till exempel, använder en rudimentär form av AI för att automatiskt ta bilder när den ser något som den anser vara viktigt. Amazon, vars Alexa är redan föremål för avlyssningsparanoia, har köpt populära videodörrklockaföretaget Ring. GE Appliances planerar också att lansera en videokamerautrustad nav för kök senare i år. I Europa kommer Electrolux att debutera en ångugn i år med en inbyggd webbkamera.
Medan dessa tekniker höjer spöket för Big Brother övervakar alla våra rörelser, det finns fortfarande det lovvärda hoppet att använda sofistikerad AI som Corticas program kan förbättra säkerheten, effektiviteten och rädda liv. Man kan inte låta bli att till exempel undra vad som skulle ha hänt om sådan teknik fanns tillgänglig och användes i Uber som 19-årige Nikolas Cruz tog på väg för att mörda 17 personer på Marjory Stoneman Douglas High Skola. Uber-föraren märkte inget fel med Cruz, men kan en AI-utrustad kamera ha upptäckt mikrouttryck som avslöjar hans avsikter och larmat polisen? I framtiden kanske vi får reda på det.