Kunstig intelligens programmer lover å gjøre alt, fra å forutsi været til å styre autonome biler. Nå brukes AI på videoovervåkingssystemer, og lover å hindre kriminell aktivitet, ikke ved å oppdage forbrytelser som pågår, men ved å identifisere en forbrytelse – før det skjer. Målet er å forebygge vold som seksuelle overgrep, men kunne slike beundringsverdige intensjoner bli til Minoritetsrapport-style mareritt før forbrytelsen?
En slik mulighet kan virke som en plottlinje fra en episode av Svart speil, men det er ikke lenger science fiction-stoffet. Cortica, et israelsk selskap med dype røtter i sikkerhet og AI-forskning, nylig dannet et partnerskap i India med Best Group for å analysere terabyte med datastrømming fra CCTV-kameraer i offentlige områder. Et av målene er å forbedre sikkerheten på offentlige steder, som bygater, bussholdeplasser og togstasjoner.
Det er allerede vanlig for rettshåndhevelse i byer som London og New York bruke ansiktsgjenkjenning og nummerskilt som en del av videokameraovervåkingen deres. Men Corticas AI lover å ta det mye lenger ved å se etter "atferdsavvik" som signaliserer at noen er i ferd med å begå en voldelig forbrytelse.
Programvaren er basert på typen militære og statlige sikkerhetskontrollsystemer som prøver å identifisere terrorister ved å overvåke mennesker i sanntid, på jakt etter såkalte mikrouttrykk - små rykninger eller væremåter som kan motbevise en persons ondskapsfulle intensjoner. Slike avslørende tegn er så små at de kan unngå en erfaren detektiv, men ikke det ublinkende øyet til AI.
På et møte i Tel Aviv før avtalen ble annonsert, forklarte medgründer og COO Karina Odinaev at Corticas programvare er ment å møte utfordringer med å identifisere objekter som ikke lett kan klassifiseres i henhold til tradisjonelle stereotyper. Et eksempel Odinaev beskrev involvert hjørnesaker (som en seng som faller av en lastebil på motorveien) som oppstår i kjøresituasjoner, nettopp den typen unike hendelser som programmer som kontrollerer autonome biler må kunne håndtere i framtid.
"For det trenger du uovervåket læring," sa Odinaev. Programvaren må med andre ord lære på samme måte som mennesker lærer.
Går direkte til hjernen
Corticas AI-programvare monitorer mennesker i sanntid, på jakt etter mikro-uttrykk - små rykninger eller væremåter som kan motbevise en persons uhyggelige intensjoner.
For å lage et slikt program, gikk ikke Cortica nevrale nettverksrute (som til tross for navnet er basert på sannsynligheter og datamodeller i stedet for hvordan faktiske hjerner fungerer). I stedet gikk Cortica til kilden, i dette tilfellet et kortikalt segment av en rottes hjerne. Ved å holde et stykke hjerne i live ex vivo (utenfor kroppen) og koble det til en mikroelektrodegruppe, var Cortica i stand til å studere hvordan cortex reagerte på bestemte stimuli. Ved å overvåke de elektriske signalene, var forskerne i stand til å identifisere spesifikke grupper av nevroner kalt klikker som behandlet spesifikke konsepter. Derfra bygde selskapet signaturfiler og matematiske modeller for å simulere de originale prosessene i hjernen.
Resultatet, ifølge Cortica, er en tilnærming til AI som gir mulighet for avansert læring samtidig som den forblir gjennomsiktig. Med andre ord, hvis systemet gjør en feil - si at det feilaktig forutser at et opprør er i ferd med å bryte ut eller at en bil foran er i ferd med å trekke seg ut av en innkjørsel - programmerere kan enkelt spore problemet tilbake til prosessen eller signaturfilen som er ansvarlig for den feilaktige dømmekraft. (Sett dette i motsetning til såkalte nevrale nettverk for dyp læring, som i hovedsak er svarte bokser og kan måtte trenes helt om hvis de gjør en feil.)
I utgangspunktet vil Corticas autonome AI bli brukt av Best Group i India for å analysere de enorme datamengdene som genereres av kameraer på offentlige steder for å forbedre sikkerheten og effektiviteten. Best Group er et diversifisert selskap involvert i infrastrukturutvikling og en stor leverandør til myndigheter og byggkunder. Så den ønsker å lære å se når ting går knirkefritt – og når de ikke gjør det.
Men det er å håpe at Corticas programvare vil gjøre betydelig mer i fremtiden. Den kan brukes i fremtidige robotakser for å overvåke passasjeradferd og forhindre seksuelle overgrep, for eksempel. Corticas programvare kan også kombinere data ikke bare fra videokameraer, men også fra droner og satellitter. Og den kan lære å bedømme atferdsforskjeller, ikke bare mellom lovlydige borgere og tidligere kriminelle, men også mellom et fredelig overfylt marked og en politisk demonstrasjon som er i ferd med å snu voldelig.
Slik prediktiv informasjon vil tillate en by å sette inn politi til en potensielt farlig situasjon før liv går tapt. Men i feil hender kan det også bli misbrukt. Et despotisk regime kan for eksempel bruke slik informasjon til å undertrykke dissens og arrestere folk før de i det hele tatt hadde en sjanse til å organisere en protest.
Programvare for prediktiv kriminalitet vil tillate en by å sette inn politi til en potensielt farlig situasjon før liv går tapt. Men i feil hender kan det også bli misbrukt.
I New York City, under en demonstrasjon av hvordan Corticas Autonome AI brukes på autonome biler, Corticas visepresident, Patrick Flynn, forklarte at selskapet er fokusert på å gjøre programvaren effektiv og pålitelig for å levere de mest nøyaktige klassifiseringsdataene mulig. Hva kundene gjør med den informasjonen – stopper en bil eller gjør den raskere for å unngå en ulykke, for eksempel – er opp til dem. Det samme vil gjelde hvordan en by eller regjering kan fordele politiressurser.
"De politiske beslutningene er strengt tatt utenfor Corticas område," sa Flynn.
Ville vi gi opp personvernet for bedre sikkerhet?
Ikke desto mindre begynner ekteskapelig intelligens med nettverk som er allestedsnærværende av webkameraer å generere mer angst for personvern og personlig frihet. Og det er ikke bare utenlandske despotiske regjeringer folk er bekymret for.
I New Orleans har ordfører Mitch Landrieu foreslått en kriminalitetsbekjempende overvåkingsplan på 40 millioner dollar, som inkluderer nettverk sammen kommunale kameraer med live feeds fra private webkameraer som drives av bedrifter og enkeltpersoner. Forslaget har allerede trukket offentlige protester fra innvandrerarbeidere som er bekymret for at føderale immigrasjonsmyndigheter vil bruke kameraene til å jakte på papirløse arbeidere og deportere dem.
Algoritme som hjelper politiet med å forutsi kriminalitet | Mach | NBC Nyheter
I mellomtiden, som emner fanget i en Svart speil verden, kan forbrukere allerede ubevisst underkaste seg slik AI-drevet overvåking. Googles $249 Klipp kamera, for eksempel, bruker en rudimentær form for AI for automatisk å ta bilder når den ser noe den anser som viktig. Amazon, hvis Alexa er allerede gjenstand for avlytting av paranoia, har kjøpt det populære videodørklokkeselskapet Ring. GE Appliances planlegger også å debutere et videokamera utstyrt hub for kjøkken senere i år. I Europa vil Electrolux debutere en dampovn i år med innebygd webkamera.
Mens disse teknologiene hever spekteret av Big Brother overvåker alle våre bevegelser, det er fortsatt det prisverdige håpet om å bruke sofistikert AI som Corticas program kan forbedre sikkerheten, effektiviteten og redde liv. Man kan ikke la være å lure på, for eksempel, hva som ville ha skjedd hvis slik teknologi var tilgjengelig og brukt i Uber som 19 år gamle Nikolas Cruz tok på vei for å myrde 17 mennesker på Marjory Stoneman Douglas High Skole. Uber-sjåføren la ikke merke til noe galt med Cruz, men kunne et AI-utstyrt kamera ha oppdaget mikrouttrykk som avslører intensjonene hans og varslet politiet? I fremtiden kan vi finne ut av det.