Kan op AI gebaseerde surveillance misdaad voorspellen voordat het gebeurt?

Programma's voor kunstmatige intelligentie beloven alles te doen, van het voorspellen van het weer tot het besturen van autonome auto’s. Nu wordt AI toegepast op videobewakingssystemen, die beloven criminele activiteiten te dwarsbomen, niet door lopende misdaden op te sporen, maar door een misdrijf te identificeren – voordat het gebeurt. Het doel is om geweld, zoals seksueel geweld, te voorkomen, maar dat zou ook kunnen bewonderenswaardige bedoelingen worden Minderheidsverslag-stijl nachtmerries vóór de misdaad?

Een dergelijke mogelijkheid lijkt misschien een verhaallijn uit een aflevering van Zwarte spiegel, maar het is niet langer sciencefiction. Cortica, een Israëlisch bedrijf met diepe wortels in veiligheid en AI-onderzoek, onlangs een maatschap gevormd in India met Best Group om de terabytes aan datastreaming van CCTV-camera's in openbare ruimtes te analyseren. Eén van de doelstellingen is het verbeteren van de veiligheid op openbare plaatsen, zoals stadsstraten, bushaltes en treinstations.

Het is al gebruikelijk dat wetshandhavers dit doen in steden als Londen en New York gebruik maken van gezichtsherkenning en kentekenmatching als onderdeel van hun videocamerabewaking. Maar de AI van Cortica belooft nog veel verder te gaan door te zoeken naar ‘gedragsafwijkingen’ die erop wijzen dat iemand op het punt staat een gewelddadige misdaad te plegen.

De software is gebaseerd op het type veiligheidsonderzoekssystemen van het leger en de overheid dat terroristen probeert te identificeren door middel van monitoring mensen in realtime, op zoek naar zogenaamde micro-expressies – minuscule schokken of maniertjes die de snode eigenschappen van een persoon kunnen verloochenen intenties. Dergelijke veelbetekenende signalen zijn zo klein dat ze een ervaren detective kunnen ontgaan, maar niet het niet-knipperende oog van AI.

Tijdens een bijeenkomst in Tel Aviv voordat de deal werd aangekondigd, legde medeoprichter en COO Karina Odinaev uit dat de software van Cortica is bedoeld om uitdagingen aan te pakken bij het identificeren van objecten die niet gemakkelijk kunnen worden geclassificeerd volgens traditionele stereotypen. Een voorbeeld dat Odinaev beschreef was betrokken hoek gevallen (zoals een bed dat op de snelweg van een vrachtwagen valt) die u precies in rijsituaties tegenkomt het soort unieke gebeurtenissen dat programma's die autonome auto's besturen, in de toekomst moeten kunnen verwerken toekomst.

“Daarvoor heb je leren zonder toezicht nodig”, zei Odinaev. Met andere woorden: de software moet op dezelfde manier leren als mensen.

Gaat rechtstreeks naar de hersenen

Cortica's AI-software monitoren mensen in realtime, op zoek naar micro-expressies – minuscule schokken of maniertjes die iemands snode bedoelingen kunnen verloochenen.

Om zo'n programma te maken, heeft Cortica niet de stap gezet neurale netwerk route (dat ondanks zijn naam gebaseerd is op waarschijnlijkheden en rekenmodellen in plaats van op hoe echte hersenen werken). In plaats daarvan ging Cortica naar de bron, in dit geval een corticaal deel van de hersenen van een rat. Door een stukje hersenen ex vivo (buiten het lichaam) levend te houden en aan te sluiten op een micro-elektrode-array, kon Cortica bestuderen hoe de cortex reageerde op bepaalde stimuli. Door de elektrische signalen te monitoren, konden de onderzoekers specifieke groepen neuronen identificeren, kliekjes genaamd, die specifieke concepten verwerkten. Van daaruit bouwde het bedrijf handtekeningbestanden en wiskundige modellen om de oorspronkelijke processen in de hersenen te simuleren.

Het resultaat is volgens Cortica een benadering van AI die geavanceerd leren mogelijk maakt en tegelijkertijd transparant blijft. Met andere woorden: als het systeem een ​​fout maakt – bijvoorbeeld ten onrechte verwacht dat er een rel zal uitbreken of dat een auto voor u op het punt staat van een oprit halen - programmeurs kunnen het probleem gemakkelijk terugvoeren naar het proces of handtekeningbestand dat verantwoordelijk is voor de fout oordeel. (Vergelijk dit met zogenaamde deep learning neurale netwerken, die in wezen zwarte dozen zijn en mogelijk volledig opnieuw moeten worden getraind als ze een fout maken.)

In eerste instantie zal de autonome AI van Cortica door Best Group in India worden gebruikt om de enorme hoeveelheden gegevens te analyseren die door camera’s op openbare plaatsen worden gegenereerd om de veiligheid en efficiëntie te verbeteren. Best Group is een gediversifieerd bedrijf dat zich bezighoudt met infrastructuurontwikkeling en een belangrijke leverancier aan overheids- en bouwklanten. Het wil dus leren hoe te vertellen wanneer dingen soepel verlopen – en wanneer niet.

Een display met een gezichtsherkenningssysteem voor wetshandhaving tijdens de NVIDIA GPU Technology Conference, waar AI, deep learning, virtual reality en autonome machines worden getoond.Saul Loeb/AFP/Getty Images

Maar de hoop is dat de software van Cortica in de toekomst aanzienlijk meer zal doen. Het zou in toekomstige robotaxis gebruikt kunnen worden om bijvoorbeeld het gedrag van passagiers te monitoren en seksueel geweld te voorkomen. De software van Cortica kan bovendien niet alleen gegevens van videocamera’s combineren, maar ook van drones en satellieten. En het kan gedragsverschillen leren beoordelen, niet alleen tussen gezagsgetrouwe burgers en vroegere burgers criminelen, maar ook tussen een vreedzame, drukke markt en een politieke demonstratie die op het punt staat te keren gewelddadig.

Dergelijke voorspellende informatie zou een stad in staat stellen wetshandhaving in te zetten in een potentieel gevaarlijke situatie voordat er levens verloren gaan. In de verkeerde handen kan het echter ook misbruikt worden. Een despotisch regime zou dergelijke informatie bijvoorbeeld kunnen gebruiken om afwijkende meningen te onderdrukken en mensen te arresteren voordat ze zelfs maar de kans hadden een protest te organiseren.

Software voor voorspellende misdaad zou een stad in staat stellen wetshandhaving in te zetten in een potentieel gevaarlijke situatie voordat er levens verloren gaan. In de verkeerde handen kan het echter ook misbruikt worden.

In New York City, tijdens een demonstratie van hoe Cortica’s autonome AI wordt toegepast op autonome auto’s, zei Cortica’s vice-president, Patrick Flynn, legde uit dat het bedrijf erop gericht is de software efficiënt en betrouwbaar te maken om de meest nauwkeurige classificatiegegevens te leveren mogelijk. Wat klanten met die informatie doen – bijvoorbeeld een auto stoppen of versnellen om een ​​ongeval te voorkomen – is aan hen. Hetzelfde zou gelden voor de manier waarop een stad of overheid politiemiddelen zou kunnen toewijzen.

“De beleidsbeslissingen vallen strikt buiten het gebied van Cortica”, zei Flynn.

Zouden we privacy opgeven voor betere veiligheid?

Niettemin begint het huwelijk van AI met netwerken die alomtegenwoordig zijn in webcams meer zorgen over privacy en persoonlijke vrijheid te veroorzaken. En het zijn niet alleen buitenlandse despotische regeringen waar mensen zich zorgen over maken.

In New Orleans heeft burgemeester Mitch Landrieu een plan voor misdaadbestrijding ter waarde van 40 miljoen dollar voorgesteld het samenbrengen van gemeentelijke camera's met de livefeeds van particuliere webcams die door bedrijven worden beheerd individuen. Het voorstel heeft al tot publieke protesten geleid van arbeidsmigranten die bezorgd zijn dat federale immigratieambtenaren de camera's zullen gebruiken om werknemers zonder papieren op te sporen en te deporteren.

Algoritme dat de politie helpt misdaad te voorspellen | Mach | NBC-nieuws

Ondertussen, zoals onderwerpen gevangen in een Zwarte spiegel In de wereld onderwerpen consumenten zich misschien al onbewust aan dergelijk door AI aangedreven toezicht. Google's $ 249 Clips-camera, maakt bijvoorbeeld gebruik van een rudimentaire vorm van AI om automatisch foto's te maken wanneer het iets ziet dat het belangrijk acht. Amazone, waarvan Alexa is al het onderwerp van afluisterparanoia, heeft het populaire videodeurbelbedrijf Ring gekocht. GE Appliances is ook van plan later dit jaar een met videocamera's uitgeruste hub voor keukens te introduceren. In Europa introduceert Electrolux dit jaar een stoomoven met ingebouwde webcam.

Terwijl deze technologieën het schrikbeeld van Big Brother oproepen houdt al onze bewegingen in de gaten, er is nog steeds de lovenswaardige hoop dat gebruik wordt gemaakt van geavanceerde AI zoals het programma van Cortica de veiligheid en efficiëntie zou kunnen verbeteren en levens zou kunnen redden. Je vraagt ​​je bijvoorbeeld af wat er zou zijn gebeurd als dergelijke technologie beschikbaar was en werd gebruikt de Uber die de 19-jarige Nikolas Cruz meenam op weg om 17 mensen te vermoorden op Marjory Stoneman Douglas High School. De Uber-chauffeur merkte niets aan de hand met Cruz, maar had een met AI uitgeruste camera micro-expressies kunnen detecteren die zijn bedoelingen onthulden en de politie hebben gewaarschuwd? In de toekomst zullen we er wellicht achter komen.