Programas de inteligência artificial prometo fazer tudo, desde prever o tempo até pilotar carros autônomos. Agora a IA está a ser aplicada a sistemas de videovigilância, prometendo impedir a actividade criminosa, não através da detecção de crimes em curso, mas através da identificação de um crime – antes que aconteça. O objectivo é prevenir a violência, como as agressões sexuais, mas será que tal intenções admiráveis transformar-se em Relatório Minoritáriopesadelos pré-crime no estilo?
Tal possibilidade pode parecer uma trama de um episódio de Espelho preto, mas não é mais matéria de ficção científica. Cortica, uma empresa israelense com raízes profundas em segurança e Pesquisa de IA, recentemente formou uma parceria na Índia com o Best Group para analisar os terabytes de transmissão de dados de câmeras CCTV em áreas públicas. Um dos objetivos é melhorar a segurança em locais públicos, como ruas de cidades, pontos de ônibus e estações de trem.
Já é comum que as autoridades policiais em cidades como Londres e Nova York
empregar reconhecimento facial e correspondência de placas de veículos como parte de sua vigilância por câmera de vídeo. Mas a IA da Cortica promete ir muito mais longe, procurando “anomalias comportamentais” que sinalizem que alguém está prestes a cometer um crime violento.O software é baseado no tipo de sistema de triagem de segurança militar e governamental que tenta identificar terroristas monitorando pessoas em tempo real, procurando as chamadas microexpressões – pequenas contrações ou maneirismos que podem desmentir o nefasto de uma pessoa intenções. Esses sinais reveladores são tão pequenos que podem escapar de um detetive experiente, mas não do olhar atento da IA.
Em uma reunião em Tel Aviv antes do anúncio do acordo, a cofundadora e COO Karina Odinaev explicou que o software da Cortica pretende enfrentar desafios na identificação de objetos que não são facilmente classificados de acordo com os estereótipos tradicionais. Um exemplo que Odinaev descreveu envolveu casos de canto (como uma caçamba caindo de um caminhão na rodovia) que ocorrem em situações de direção, precisamente o tipo de eventos únicos que os programas que controlam carros autônomos terão que ser capazes de lidar no futuro.
“Para isso, você precisa de aprendizado não supervisionado”, disse Odinaev. Em outras palavras, o software tem que aprender da mesma forma que os humanos aprendem.
Indo diretamente para o cérebro
Software de IA da Cortica monitores pessoas em tempo real, em busca de microexpressões – minúsculos espasmos ou maneirismos que podem desmentir as intenções nefastas de uma pessoa.
Para criar tal programa, Cortica não seguiu o caminho rota de rede neural (que apesar do nome é baseado em probabilidades e modelos de computação, e não em como os cérebros reais funcionam). Em vez disso, Cortica foi até a fonte, neste caso um segmento cortical do cérebro de um rato. Ao manter um pedaço de cérebro vivo ex vivo (fora do corpo) e conectá-lo a um conjunto de microeletrodos, Cortica foi capaz de estudar como o córtex reagia a estímulos específicos. Ao monitorar os sinais elétricos, os pesquisadores conseguiram identificar grupos específicos de neurônios chamados cliques que processavam conceitos específicos. A partir daí, a empresa construiu arquivos de assinatura e modelos matemáticos para simular os processos originais no cérebro.
O resultado, segundo Cortica, é uma abordagem à IA que permite uma aprendizagem avançada e ao mesmo tempo transparente. Em outras palavras, se o sistema comete um erro – digamos, ele antecipa falsamente que um motim está prestes a começar ou que um carro à frente está prestes a explodir. sair de uma garagem - os programadores podem facilmente rastrear o problema até o processo ou arquivo de assinatura responsável pelo erro julgamento. (Compare isso com as chamadas redes neurais de aprendizagem profunda, que são essencialmente caixas pretas e podem ter que ser completamente treinadas novamente se cometerem um erro.)
Inicialmente, a IA autônoma da Cortica será usada pelo Best Group na Índia para analisar as enormes quantidades de dados gerados por câmeras em locais públicos para melhorar a segurança e a eficiência. O Best Group é uma empresa diversificada envolvida no desenvolvimento de infraestrutura e um importante fornecedor para clientes governamentais e de construção. Por isso, quer aprender como saber quando as coisas estão funcionando bem – e quando não estão.
Mas espera-se que o software da Cortica faça muito mais no futuro. Poderia ser usado em futuros robotáxis para monitorar o comportamento dos passageiros e prevenir agressões sexuais, por exemplo. O software da Cortica também pode combinar dados não apenas de câmeras de vídeo, mas também de drones e satélites. E pode aprender a julgar as diferenças comportamentais, não apenas entre cidadãos cumpridores da lei e antigos cidadãos. criminosos, mas também entre um mercado pacífico e lotado e uma manifestação política que está prestes a virar violento.
Essas informações preditivas permitiriam que uma cidade mobilizasse a aplicação da lei para uma situação potencialmente perigosa antes que vidas fossem perdidas. No entanto, nas mãos erradas, também pode haver abuso. Um regime despótico, por exemplo, poderia utilizar essas informações para reprimir a dissidência e prender pessoas antes mesmo de terem a oportunidade de organizar um protesto.
O software preditivo de crimes permitiria que uma cidade mobilizasse a aplicação da lei para uma situação potencialmente perigosa antes que vidas fossem perdidas. No entanto, nas mãos erradas, também pode haver abuso.
Na cidade de Nova York, durante uma demonstração de como a IA autônoma da Cortica está sendo aplicada a carros autônomos, o vice-presidente da Cortica, Patrick Flynn explicou que a empresa está focada em tornar o software eficiente e confiável para fornecer os dados de classificação mais precisos possível. O que os clientes fazem com essas informações – parar um carro ou acelerá-lo para evitar um acidente, por exemplo – depende deles. O mesmo se aplicaria à forma como uma cidade ou governo poderia alocar recursos policiais.
“As decisões políticas estão estritamente fora da área de Cortica”, disse Flynn.
Abriríamos mão da privacidade em troca de maior segurança?
No entanto, o casamento da IA com redes que são omnipresentes nas webcams está a começar a gerar mais ansiedade em relação à privacidade e à liberdade pessoal. E não são apenas os governos despóticos estrangeiros que preocupam as pessoas.
Em Nova Orleans, o prefeito Mitch Landrieu propôs um plano de vigilância para combater o crime no valor de US$ 40 milhões, que inclui interligar câmeras municipais com transmissões ao vivo de webcams privadas operadas por empresas e indivíduos. A proposta já suscitou protestos públicos de trabalhadores imigrantes preocupados com o facto de as autoridades federais de imigração utilizarem as câmaras para caçar trabalhadores indocumentados e deportá-los.
Algoritmo que ajuda a polícia a prever crimes | Mach | Notícias da NBC
Enquanto isso, como sujeitos presos em um Espelho preto mundo, os consumidores podem já estar submetendo-se involuntariamente a essa vigilância alimentada por IA. $ 249 do Google Câmera de clipes, por exemplo, usa uma forma rudimentar de IA para tirar fotos automaticamente quando vê algo que considera significativo. Amazonas, cujo Alexa já é objeto de paranóia de espionagem, comprou a popular empresa de campainhas de vídeo Ring. A GE Appliances também está planejando lançar um hub equipado com câmeras de vídeo para cozinhas ainda este ano. Na Europa, a Electrolux vai lançar este ano um forno a vapor com webcam embutida.
Embora estas tecnologias elevem o espectro do Big Brother monitorando cada movimento nosso, ainda há a louvável esperança de que usar IA sofisticada como o programa de Cortica poderia melhorar a segurança, a eficiência e salvar vidas. Não podemos deixar de nos perguntar, por exemplo, o que teria acontecido se tal tecnologia estivesse disponível e fosse usada em o Uber que Nikolas Cruz, de 19 anos, pegou no caminho para assassinar 17 pessoas na Marjory Stoneman Douglas High Escola. O motorista do Uber não percebeu nada de errado com Cruz, mas será que uma câmera equipada com IA poderia ter detectado microexpressões revelando suas intenções e alertado a polícia? No futuro, poderemos descobrir.