Programmi di intelligenza artificiale prometti di fare tutto, dalla previsione del tempo al pilotaggio di auto autonome. Ora l’intelligenza artificiale viene applicata ai sistemi di videosorveglianza, promettendo di contrastare l’attività criminale non rilevando i crimini in corso ma identificando un crimine prima che accada. L'obiettivo è prevenire la violenza come le aggressioni sessuali, ma potrebbero esserlo intenzioni ammirevoli trasformarsi in Rapporto di minoranzaincubi pre-crimine in stile?
Tale possibilità può sembrare la trama di un episodio di Specchio nero, ma non è più roba da fantascienza. Cortica, un'azienda israeliana con profonde radici nella sicurezza e Ricerca sull'intelligenza artificiale, recentemente formato un partenariato in India con Best Group per analizzare i terabyte di dati in streaming dalle telecamere CCTV nelle aree pubbliche. Uno degli obiettivi è migliorare la sicurezza nei luoghi pubblici, come le strade cittadine, le fermate degli autobus e le stazioni ferroviarie.
È già una cosa comune per le forze dell’ordine in città come Londra e New York impiegare il riconoscimento facciale e la corrispondenza delle targhe come parte della sorveglianza tramite videocamera. Ma l’intelligenza artificiale di Cortica promette di andare molto oltre, cercando “anomalie comportamentali” che segnalino che qualcuno sta per commettere un crimine violento.
Il software si basa sul tipo di sistemi di screening di sicurezza militari e governativi che cercano di identificare i terroristi mediante monitoraggio persone in tempo reale, alla ricerca delle cosiddette microespressioni: minuscoli movimenti o manierismi che possono smentire le nefandezze di una persona intenzioni. Questi segnali rivelatori sono così piccoli che possono sfuggire a un detective esperto ma non all’occhio impassibile dell’intelligenza artificiale.
In un incontro a Tel Aviv prima dell’annuncio dell’accordo, la co-fondatrice e COO Karina Odinaev ha spiegato che il software di Cortica ha lo scopo di affrontare le sfide nell'identificazione di oggetti che non sono facilmente classificabili secondo gli stereotipi tradizionali. Un esempio descritto da Odinaev è coinvolto casi d'angolo (come ad esempio la caduta del letto da un camion in autostrada) che si riscontrano appunto nelle situazioni di guida il tipo di eventi unici che i programmi che controllano le auto autonome dovranno essere in grado di gestire nel mondo futuro.
“Per questo è necessario un apprendimento non supervisionato”, ha detto Odinaev. In altre parole, il software deve apprendere nello stesso modo in cui imparano gli esseri umani.
Direttamente al cervello
Il software AI di Cortica monitor persone in tempo reale, alla ricerca di microespressioni: minuscoli movimenti o manierismi che possono smentire le intenzioni nefaste di una persona.
Per creare un programma del genere, Cortica non è andata percorso della rete neurale (che nonostante il nome si basa su probabilità e modelli informatici piuttosto che su come funzionano i cervelli reali). Invece, Cortica è andata alla fonte, in questo caso un segmento corticale del cervello di un ratto. Mantenendo in vita un pezzo di cervello ex vivo (fuori dal corpo) e collegandolo a una serie di microelettrodi, Cortica è stata in grado di studiare come la corteccia reagiva a particolari stimoli. Monitorando i segnali elettrici, i ricercatori sono stati in grado di identificare gruppi specifici di neuroni chiamati cricche che elaboravano concetti specifici. Da lì, l’azienda ha creato file di firme e modelli matematici per simulare i processi originali nel cervello.
Il risultato, secondo Cortica, è un approccio all’intelligenza artificiale che consente un apprendimento avanzato pur rimanendo trasparente. In altre parole, se il sistema commette un errore, ad esempio anticipa falsamente che sta per scoppiare una rivolta o che un’auto davanti a lui sta per scoppiare. uscire da un vialetto: i programmatori possono facilmente far risalire il problema al processo o al file di firma responsabile dell'errore giudizio. (In contrasto con le cosiddette reti neurali di deep learning, che sono essenzialmente scatole nere e potrebbero dover essere completamente riqualificate se commettono un errore.)
Inizialmente, l’intelligenza artificiale autonoma di Cortica verrà utilizzata da Best Group in India per analizzare le enormi quantità di dati generati dalle telecamere nei luoghi pubblici per migliorare la sicurezza e l’efficienza. Best Group è una società diversificata coinvolta nello sviluppo delle infrastrutture e un importante fornitore di clienti governativi e edili. Quindi vuole imparare a capire quando le cose stanno andando bene e quando no.
Ma si spera che il software di Cortica possa fare molto di più in futuro. Potrebbe essere utilizzato nei futuri robotaxi per monitorare il comportamento dei passeggeri e prevenire, ad esempio, aggressioni sessuali. Il software di Cortica può anche combinare dati non solo provenienti da videocamere, ma anche da droni e satelliti. E può imparare a giudicare le differenze comportamentali, non solo tra i cittadini rispettosi della legge e quelli di un tempo criminali, ma anche tra un mercato pacifico e affollato e una manifestazione politica imminente violento.
Tali informazioni predittive consentirebbero a una città di impiegare le forze dell’ordine in una situazione potenzialmente pericolosa prima che si perdano vite umane. Tuttavia, nelle mani sbagliate, se ne potrebbe anche abusare. Un regime dispotico, ad esempio, potrebbe utilizzare tali informazioni per reprimere il dissenso e arrestare le persone prima ancora che abbiano la possibilità di organizzare una protesta.
Un software di prevenzione del crimine consentirebbe a una città di impiegare le forze dell’ordine in una situazione potenzialmente pericolosa prima che si perdano vite umane. Tuttavia, nelle mani sbagliate, se ne potrebbe anche abusare.
A New York City, durante una dimostrazione di come l’intelligenza artificiale autonoma di Cortica viene applicata alle auto autonome, il vicepresidente di Cortica, Patrick Flynn, ha spiegato che l'obiettivo dell'azienda è rendere il software efficiente e affidabile per fornire dati di classificazione più accurati possibile. Ciò che i clienti fanno con queste informazioni, ad esempio fermare un’auto o accelerarla per evitare un incidente, dipende da loro. Lo stesso varrebbe per il modo in cui una città o un governo potrebbero allocare le risorse della polizia.
“Le decisioni politiche sono strettamente al di fuori dell’area di Cortica”, ha detto Flynn.
Rinunceremmo alla privacy per una maggiore sicurezza?
Tuttavia, il connubio tra l’intelligenza artificiale e le reti onnipresenti di webcam sta iniziando a generare più ansia per la privacy e la libertà personale. E non sono solo i governi dispotici stranieri a preoccupare le persone.
A New Orleans, il sindaco Mitch Landrieu ha proposto un piano di sorveglianza da 40 milioni di dollari per combattere la criminalità, che include collegare in rete le telecamere comunali con i feed live delle webcam private gestite da aziende e individui. La proposta ha già suscitato proteste pubbliche da parte dei lavoratori immigrati, preoccupati che i funzionari federali dell'immigrazione utilizzino le telecamere per dare la caccia ai lavoratori privi di documenti e deportarli.
Algoritmo che aiuta la polizia a prevedere il crimine | Mach | Notizie della NBC
Nel frattempo, come i soggetti intrappolati in a Specchio nero Nel mondo, i consumatori potrebbero già sottoporsi involontariamente a tale sorveglianza basata sull’intelligenza artificiale. I 249 dollari di Google Fotocamera con clip, ad esempio, utilizza una forma rudimentale di intelligenza artificiale per scattare automaticamente foto quando vede qualcosa che ritiene significativo. Amazon, di cui Alexa è già oggetto di paranoia di intercettazione, ha acquistato la famosa società di videocitofoni Ring. GE Appliances prevede inoltre di lanciare entro la fine dell'anno un hub per cucine dotato di videocamera. In Europa, Electrolux lancerà quest'anno un forno a vapore con webcam integrata.
Mentre queste tecnologie sollevano lo spettro del Grande Fratello monitorando ogni nostra mossa, c'è ancora la lodevole speranza che l'utilizzo IA sofisticata come il programma di Cortica potrebbe migliorare la sicurezza, l’efficienza e salvare vite umane. Non si può fare a meno di chiedersi, ad esempio, cosa sarebbe successo se tale tecnologia fosse stata disponibile e utilizzata l'Uber che il diciannovenne Nikolas Cruz ha preso per uccidere 17 persone alla Marjory Stoneman Douglas High Scuola. L’autista di Uber non ha notato nulla di strano in Cruz, ma una telecamera dotata di intelligenza artificiale avrebbe potuto rilevare microespressioni che rivelavano le sue intenzioni e allertare la polizia? In futuro, potremmo scoprirlo.