Kunstig intelligens programmer lover at gøre alt, fra at forudsige vejret til at styre selvkørende biler. Nu bliver kunstig intelligens anvendt på videoovervågningssystemer og lover at forhindre kriminel aktivitet, ikke ved at opdage forbrydelser i gang, men ved at identificere en forbrydelse – før den sker. Målet er at forebygge vold som seksuelle overgreb, men kunne sådan beundringsværdige hensigter blive til Mindretalsrapport-style mareridt før forbrydelsen?
En sådan mulighed kan virke som en plotlinje fra en episode af Sort spejl, men det er ikke længere science fiction-stoffet. Cortica, en israelsk virksomhed med dybe rødder i sikkerhed og AI forskning, for nylig dannet et partnerskab i Indien med Best Group for at analysere terabytes af datastreaming fra CCTV-kameraer i offentlige områder. Et af målene er at forbedre sikkerheden på offentlige steder, såsom bygader, busstoppesteder og togstationer.
Det er allerede almindeligt for retshåndhævelse i byer som London og New York bruge ansigtsgenkendelse
og nummerpladematching som en del af deres videokameraovervågning. Men Corticas AI lover at tage det meget længere ved at lede efter "adfærdsmæssige anomalier", der signalerer, at nogen er ved at begå en voldelig forbrydelse.
Softwaren er baseret på den type militære og statslige sikkerhedsscreeningssystemer, der forsøger at identificere terrorister ved overvågning mennesker i realtid, på udkig efter såkaldte mikro-udtryk - små trækninger eller manerer, der kan modsige en persons ondskabsfulde hensigter. Sådanne afslørende tegn er så små, at de kan undslippe en erfaren detektiv, men ikke AI's ublinkende øje.
På et møde i Tel Aviv før aftalen blev offentliggjort, forklarede medstifter og COO Karina Odinaev, at Corticas software er beregnet til at løse udfordringer med at identificere objekter, der ikke let kan klassificeres i henhold til traditionelle stereotyper. Et eksempel Odinaev beskrev involveret hjørne sager (såsom en seng, der falder ned af en lastbil på motorvejen), som man støder på i kørselssituationer, netop den slags unikke begivenheder, som programmer, der styrer autonome biler, skal kunne håndtere i fremtid.
"For det har du brug for uovervåget læring," sagde Odinaev. Softwaren skal med andre ord lære på samme måde, som mennesker lærer.
Går direkte til hjernen
Corticas AI-software skærme mennesker i realtid, på udkig efter mikro-udtryk - små trækninger eller manerer, der kan modsige en persons uhyggelige hensigter.
For at skabe et sådant program gik Cortica ikke til neurale netværksrute (som trods sit navn er baseret på sandsynligheder og computermodeller snarere end hvordan faktiske hjerner fungerer). I stedet gik Cortica til kilden, i dette tilfælde et kortikalt segment af en rottes hjerne. Ved at holde et stykke hjerne i live ex vivo (uden for kroppen) og forbinde det med et mikroelektrodearray, var Cortica i stand til at studere, hvordan cortex reagerede på bestemte stimuli. Ved at overvåge de elektriske signaler var forskerne i stand til at identificere specifikke grupper af neuroner kaldet kliker, der behandlede specifikke koncepter. Derfra byggede virksomheden signaturfiler og matematiske modeller for at simulere de originale processer i hjernen.
Resultatet er ifølge Cortica en tilgang til kunstig intelligens, der giver mulighed for avanceret læring, mens den forbliver gennemsigtig. Med andre ord, hvis systemet laver en fejl - siger det fejlagtigt, at et optøj er ved at bryde ud, eller at en forankørende bil er ved at trække sig ud af en indkørsel - programmører kan nemt spore problemet tilbage til processen eller signaturfilen, der er ansvarlig for den fejlagtige dom. (Sammenlign dette med såkaldte deep learning neurale netværk, som i det væsentlige er sorte bokse og måske skal omskoles fuldstændigt, hvis de laver en fejl.)
I første omgang vil Corticas Autonome AI blive brugt af Best Group i Indien til at analysere de enorme mængder data, der genereres af kameraer på offentlige steder for at forbedre sikkerheden og effektiviteten. Best Group er en diversificeret virksomhed, der er involveret i udvikling af infrastruktur og en stor leverandør til regerings- og byggekunder. Så det vil gerne lære at fortælle, hvornår tingene kører glat - og hvornår de ikke gør det.

Men det er håbet, at Corticas software vil gøre betydeligt mere i fremtiden. Det kunne bruges i fremtidens robotakse til for eksempel at overvåge passagerernes adfærd og forhindre seksuelle overgreb. Corticas software kan også kombinere data ikke kun fra videokameraer, men også fra droner og satellitter. Og den kan lære at bedømme adfærdsmæssige forskelle, ikke kun mellem lovlydige borgere og tidligere kriminelle, men også mellem et fredeligt overfyldt marked og en politisk demonstration, der er ved at vende voldsom.
Sådanne forudsigelige oplysninger ville give en by mulighed for at indsætte retshåndhævelse til en potentielt farlig situation, før liv går tabt. Men i de forkerte hænder kan det også blive misbrugt. Et despotisk regime kunne for eksempel bruge sådanne oplysninger til at undertrykke uenige og arrestere folk, før de overhovedet havde en chance for at organisere en protest.
Software til forudsigelse af kriminalitet vil give en by mulighed for at indsætte retshåndhævelse i en potentielt farlig situation, før liv går tabt. Men i de forkerte hænder kan det også blive misbrugt.
I New York City, under en demonstration af, hvordan Corticas Autonomous AI anvendes på autonome biler, Corticas vicepræsident, Patrick Flynn, forklarede, at virksomheden er fokuseret på at gøre softwaren effektiv og pålidelig for at levere de mest nøjagtige klassifikationsdata muligt. Hvad kunderne gør med disse oplysninger - standser en bil eller gør den hurtigere for at undgå en ulykke, for eksempel - er op til dem. Det samme ville gælde for, hvordan en by eller regering kan allokere politiressourcer.
"De politiske beslutninger er strengt taget uden for Corticas område," sagde Flynn.
Ville vi opgive privatlivets fred for at forbedre sikkerheden?
Ikke desto mindre begynder AI's ægteskab med netværk, der er allestedsnærværende af webcams, at skabe mere angst for privatliv og personlig frihed. Og det er ikke kun udenlandske despotiske regeringer, som folk er bekymrede for.
I New Orleans har borgmester Mitch Landrieu foreslået en 40 millioner dollars kriminalitetsbekæmpende overvågningsplan, som bl.a. netværk sammen kommunale kameraer med live-feeds fra private webcams drevet af virksomheder og enkeltpersoner. Forslaget har allerede trukket offentlige protester fra immigrantarbejdere, der er bekymrede over, at føderale immigrationsmyndigheder vil bruge kameraerne til at jage udokumenterede arbejdere og deportere dem.
Algoritme, der hjælper politiet med at forudsige kriminalitet | Mach | NBC News
I mellemtiden, ligesom emner fanget i en Sort spejl verden, kan forbrugerne allerede uforvarende underkaste sig sådan AI-drevet overvågning. Googles $249 Klip kamera, bruger for eksempel en rudimentær form for AI til automatisk at tage billeder, når den ser noget, den anser for vigtigt. Amazon, hvis Alexa er allerede genstand for aflytning af paranoia, har købt det populære videodørklokkefirma Ring. GE Appliances planlægger også at debutere et videokamera udstyret hub til køkkener senere i år. I Europa vil Electrolux debutere en dampovn i år med et indbygget webcam.
Mens disse teknologier rejser spøgelset for Big Brother overvåger alle vores bevægelser, er der stadig det prisværdige håb at bruge sofistikeret AI ligesom Corticas program kunne forbedre sikkerheden, effektiviteten og redde liv. Man kan ikke lade være med at spekulere på, for eksempel, hvad der ville være sket, hvis sådan teknologi var tilgængelig og brugt i Uber, som 19-årige Nikolas Cruz tog på vej for at myrde 17 mennesker på Marjory Stoneman Douglas High Skole. Uber-chaufføren bemærkede ikke, at der var noget galt med Cruz, men kunne et AI-udstyret kamera have opdaget mikroudtryk, der afslører hans hensigter og advaret politiet? I fremtiden finder vi måske ud af det.