Programas de inteligencia artificial promete hacer todo, desde predecir el tiempo hasta pilotar coches autónomos. Ahora la IA se está aplicando a los sistemas de videovigilancia, prometiendo frustrar la actividad delictiva no detectando delitos en curso sino identificándolos antes de que suceda. El objetivo es prevenir la violencia como las agresiones sexuales, pero ¿podrían tales intenciones admirables convertirse en Informe de minorías¿Pesadillas al estilo anterior al crimen?
Tal posibilidad puede parecer la trama de un episodio de Espejo negro, pero ya no es cosa de ciencia ficción. Cortica, una empresa israelí con profundas raíces en seguridad y investigación de IA, recientemente formó una sociedad en India con Best Group para analizar los terabytes de datos transmitidos desde cámaras CCTV en áreas públicas. Uno de los objetivos es mejorar la seguridad en lugares públicos, como calles de la ciudad, paradas de autobús y estaciones de tren.
Ya es común que las fuerzas del orden en ciudades como Londres y Nueva York
emplear reconocimiento facial y coincidencia de matrículas como parte de su vigilancia con cámara de vídeo. Pero la IA de Cortica promete ir mucho más allá al buscar “anomalías de comportamiento” que indiquen que alguien está a punto de cometer un delito violento.El software se basa en el tipo de sistemas de control de seguridad militares y gubernamentales que intentan identificar a los terroristas mediante el seguimiento. personas en tiempo real, buscando las llamadas microexpresiones: contracciones o gestos minúsculos que pueden desmentir las nefastas acciones de una persona. intenciones. Estas señales reveladoras son tan pequeñas que pueden eludir a un detective experimentado, pero no al ojo imperturbable de la IA.
En una reunión en Tel Aviv antes de que se anunciara el acuerdo, la cofundadora y directora de operaciones Karina Odinaev explicó que el software de Cortica tiene como objetivo abordar los desafíos en la identificación de objetos que no se clasifican fácilmente según los estereotipos tradicionales. Un ejemplo que Odinaev describió implicaba casos de esquina (como la caja que se cae de un camión en la carretera) que se encuentran en situaciones de conducción, precisamente el tipo de eventos únicos que los programas que controlan los autos autónomos tendrán que ser capaces de manejar en el futuro. futuro.
"Para eso, se necesita aprendizaje no supervisado", dijo Odinaev. En otras palabras, el software tiene que aprender de la misma manera que aprenden los humanos.
Ir directamente al cerebro
El software de inteligencia artificial de Cortica monitores personas en tiempo real, buscando microexpresiones: contracciones minúsculas o gestos que pueden desmentir las nefastas intenciones de una persona.
Para crear tal programa, Cortica no fue el ruta de la red neuronal (que a pesar de su nombre se basa en probabilidades y modelos informáticos en lugar de en cómo funcionan los cerebros reales). En lugar de ello, Cortica fue a la fuente, en este caso un segmento cortical del cerebro de una rata. Al mantener viva una parte del cerebro ex vivo (fuera del cuerpo) y conectarla a una matriz de microelectrodos, Cortica pudo estudiar cómo reaccionaba la corteza a estímulos particulares. Al monitorear las señales eléctricas, los investigadores pudieron identificar grupos específicos de neuronas llamados camarillas que procesaban conceptos específicos. A partir de ahí, la empresa creó archivos de firmas y modelos matemáticos para simular los procesos originales en el cerebro.
El resultado, según Cortica, es un enfoque de la IA que permite un aprendizaje avanzado sin dejar de ser transparente. En otras palabras, si el sistema comete un error (por ejemplo, anticipa falsamente que está a punto de estallar un motín o que un automóvil delante está a punto de estallar), salir de un camino de entrada: los programadores pueden rastrear fácilmente el problema hasta el proceso o el archivo de firma responsable del error juicio. (Compárese esto con las llamadas redes neuronales de aprendizaje profundo, que son esencialmente cajas negras y es posible que deban volver a entrenarse por completo si cometen un error).
Inicialmente, Best Group en India utilizará la IA autónoma de Cortica para analizar las enormes cantidades de datos generados por las cámaras en lugares públicos para mejorar la seguridad y la eficiencia. Best Group es una empresa diversificada involucrada en el desarrollo de infraestructura y un importante proveedor de clientes gubernamentales y de construcción. Por eso quiere aprender a saber cuándo las cosas funcionan sin problemas y cuándo no.
Pero se espera que el software de Cortica haga mucho más en el futuro. Podría utilizarse en futuros robotaxis para controlar el comportamiento de los pasajeros y prevenir agresiones sexuales, por ejemplo. El software de Cortica también puede combinar datos no sólo de cámaras de vídeo, sino también de drones y satélites. Y puede aprender a juzgar las diferencias de comportamiento, no sólo entre ciudadanos respetuosos de la ley y antiguos criminales, pero también entre un mercado pacífico y abarrotado y una manifestación política que está a punto de convertirse violento.
Esta información predictiva permitiría a una ciudad desplegar fuerzas del orden en una situación potencialmente peligrosa antes de que se pierdan vidas. Sin embargo, en las manos equivocadas, también se podría abusar de él. Un régimen despótico, por ejemplo, podría utilizar esa información para reprimir la disidencia y arrestar a personas incluso antes de que tuvieran la oportunidad de organizar una protesta.
El software de predicción de delitos permitiría a una ciudad desplegar fuerzas del orden en una situación potencialmente peligrosa antes de que se pierdan vidas. Sin embargo, en las manos equivocadas, también se podría abusar de él.
En la ciudad de Nueva York, durante una demostración de cómo se aplica la IA autónoma de Cortica a los coches autónomos, el vicepresidente de Cortica, Patrick Flynn, explicó que la empresa se centra en hacer que el software sea eficiente y confiable para entregar los datos de clasificación más precisos. posible. Lo que los clientes hagan con esa información (detener un automóvil o acelerarlo para evitar un accidente, por ejemplo) depende de ellos. Lo mismo se aplicaría a cómo una ciudad o un gobierno podrían asignar recursos policiales.
"Las decisiones políticas están estrictamente fuera del área de Cortica", dijo Flynn.
¿Renunciaríamos a la privacidad por una mayor seguridad?
Sin embargo, la unión de la IA con las omnipresentes redes de cámaras web está empezando a generar más ansiedad sobre la privacidad y la libertad personal. Y no son sólo los gobiernos despóticos extranjeros los que preocupan a la gente.
En Nueva Orleans, el alcalde Mitch Landrieu ha propuesto un plan de vigilancia para combatir el crimen por valor de 40 millones de dólares, que incluye Conectar cámaras municipales con transmisiones en vivo de cámaras web privadas operadas por empresas y individuos. La propuesta ya ha provocado protestas públicas de trabajadores inmigrantes preocupados de que los funcionarios federales de inmigración utilicen las cámaras para perseguir a trabajadores indocumentados y deportarlos.
Algoritmo que ayuda a la policía a predecir delitos | Macho | Noticias NBC
Mientras tanto, como sujetos atrapados en un Espejo negro En todo el mundo, es posible que los consumidores ya se estén sometiendo, sin saberlo, a dicha vigilancia impulsada por la IA. Los 249 dólares de Google cámara de clips, por ejemplo, utiliza una forma rudimentaria de IA para tomar fotografías automáticamente cuando ve algo que considera significativo. Amazonas, cuyo alexa Ya es objeto de paranoia por escuchas ilegales y ha comprado la popular empresa de timbres con vídeo Ring. GE Appliances también planea presentar un centro equipado con cámaras de video para cocinas a finales de este año. En Europa, Electrolux estrenará este año un horno de vapor con una cámara web incorporada.
Si bien estas tecnologías plantean el espectro del Gran Hermano monitoreando cada uno de nuestros movimientos, todavía existe la loable esperanza de que el uso IA sofisticada Como el programa de Cortica podría mejorar la seguridad, la eficiencia y salvar vidas. Uno no puede dejar de preguntarse, por ejemplo, qué habría pasado si dicha tecnología estuviera disponible y se utilizara en el Uber que tomó Nikolas Cruz, de 19 años, para asesinar a 17 personas en la secundaria Marjory Stoneman Douglas Escuela. El conductor de Uber no notó nada extraño en Cruz, pero ¿podría una cámara equipada con IA haber detectado microexpresiones que revelaran sus intenciones y alertado a la policía? En el futuro, es posible que lo descubramos.