La surveillance basée sur l’IA pourrait-elle prédire le crime avant qu’il ne se produise ?

Programmes d'intelligence artificielle promets de tout faire, de la prévision météo au pilotage de voitures autonomes. L’IA est désormais appliquée aux systèmes de vidéosurveillance, promettant de contrecarrer les activités criminelles non pas en détectant les crimes en cours, mais en identifiant un crime avant qu’il ne se produise. L'objectif est de prévenir la violence telle que les agressions sexuelles, mais de telles intentions admirables changer en Rapport minoritaire-des cauchemars pré-crimes de style ?

Une telle possibilité peut ressembler à une intrigue tirée d’un épisode de Miroir noir, mais ce n’est plus de la science-fiction. Cortica, une entreprise israélienne profondément ancrée dans les domaines de la sécurité et Recherche sur l'IA, récemment formé un partenariat en Inde avec Best Group pour analyser les téraoctets de données provenant des caméras de vidéosurveillance des espaces publics. L'un des objectifs est d'améliorer la sécurité dans les lieux publics, tels que les rues des villes, les arrêts de bus et les gares.

Il est déjà courant que les forces de l’ordre dans des villes comme Londres et New York utiliser la reconnaissance faciale et la correspondance des plaques d'immatriculation dans le cadre de leur surveillance par caméra vidéo. Mais l’IA de Cortica promet d’aller beaucoup plus loin en recherchant les « anomalies comportementales » qui signalent qu’une personne est sur le point de commettre un crime violent.

Le logiciel est basé sur le type de systèmes de contrôle de sécurité militaires et gouvernementaux qui tentent d'identifier les terroristes en surveillant des gens en temps réel, à la recherche de ce qu'on appelle des micro-expressions - de minuscules contractions ou manières qui peuvent démentir les infâmes d'une personne intentions. Ces signes révélateurs sont si petits qu’ils peuvent échapper à un détective expérimenté, mais pas à l’œil constant de l’IA.

Lors d'une réunion à Tel Aviv avant l'annonce de l'accord, la cofondatrice et directrice de l'exploitation, Karina Odinaev, a expliqué que le logiciel de Cortica vise à relever les défis liés à l’identification d’objets qui ne sont pas facilement classés selon les stéréotypes traditionnels. Un exemple décrit par Odinaev impliquait cas d'angle (comme la chute d'un lit d'un camion sur l'autoroute) que l'on rencontre dans les situations de conduite, précisément le genre d'événements uniques que les programmes contrôlant les voitures autonomes devront être capables de gérer dans le futur. avenir.

"Pour cela, vous avez besoin d'un apprentissage non supervisé", a déclaré Odinaev. En d’autres termes, le logiciel doit apprendre de la même manière que les humains.

Aller directement au cerveau

Le logiciel d'IA de Cortica moniteurs des gens en temps réel, à la recherche de micro-expressions – de minuscules contractions ou manières qui peuvent démentir les intentions néfastes d’une personne.

Pour créer un tel programme, Cortica n'a pas fait le itinéraire du réseau neuronal (qui, malgré son nom, est basé sur des probabilités et des modèles informatiques plutôt que sur le fonctionnement réel du cerveau). Au lieu de cela, Cortica est allée à la source, en l’occurrence un segment cortical du cerveau d’un rat. En gardant un morceau de cerveau vivant ex vivo (à l’extérieur du corps) et en le connectant à un réseau de microélectrodes, Cortica a pu étudier comment le cortex réagissait à des stimuli particuliers. En surveillant les signaux électriques, les chercheurs ont pu identifier des groupes spécifiques de neurones appelés cliques qui traitaient des concepts spécifiques. À partir de là, l’entreprise a créé des fichiers de signatures et des modèles mathématiques pour simuler les processus originaux du cerveau.

Le résultat, selon Cortica, est une approche de l’IA qui permet un apprentissage avancé tout en restant transparente. En d’autres termes, si le système fait une erreur, par exemple s’il anticipe faussement qu’une émeute est sur le point d’éclater ou qu’une voiture qui le précède est sur le point de déguerpir. sortez d'une allée - les programmeurs peuvent facilement retracer le problème jusqu'au processus ou au fichier de signature responsable de l'erreur jugement. (Contrairement à ce que l’on appelle les réseaux neuronaux d’apprentissage profond, qui sont essentiellement des boîtes noires et peuvent devoir être complètement recyclés s’ils commettent une erreur.)

Dans un premier temps, l’IA autonome de Cortica sera utilisée par Best Group en Inde pour analyser les quantités massives de données générées par les caméras dans les lieux publics afin d’améliorer la sécurité et l’efficacité. Best Group est une entreprise diversifiée impliquée dans le développement d’infrastructures et un fournisseur majeur des clients du gouvernement et de la construction. Il veut donc apprendre à savoir quand les choses se passent bien et quand elles ne le sont pas.

Un écran montrant un système de reconnaissance faciale destiné aux forces de l'ordre lors de la conférence NVIDIA GPU Technology, qui présente l'IA, l'apprentissage profond, la réalité virtuelle et les machines autonomes.Saul Loeb/AFP/Getty Images

Mais on espère que le logiciel de Cortica fera bien plus à l’avenir. Il pourrait être utilisé dans les futurs robots-taxis pour surveiller le comportement des passagers et prévenir les agressions sexuelles, par exemple. Le logiciel de Cortica peut également combiner les données provenant non seulement de caméras vidéo, mais également de drones et de satellites. Et il peut apprendre à juger les différences de comportement, pas seulement entre les citoyens respectueux des lois et ceux d'autrefois. criminels, mais aussi entre un marché paisible et bondé et une manifestation politique qui est sur le point de tourner violent.

De telles informations prédictives permettraient à une ville de déployer les forces de l'ordre dans une situation potentiellement dangereuse avant que des vies ne soient perdues. Cependant, entre de mauvaises mains, il pourrait également faire l’objet d’abus. Un régime despotique, par exemple, pourrait utiliser ces informations pour réprimer la dissidence et arrêter des personnes avant même qu’elles n’aient eu la possibilité d’organiser une manifestation.

Un logiciel de prévision de la criminalité permettrait à une ville de déployer les forces de l'ordre dans une situation potentiellement dangereuse avant que des vies ne soient perdues. Cependant, entre de mauvaises mains, il pourrait également faire l’objet d’abus.

À New York, lors d'une démonstration de la manière dont l'IA autonome de Cortica est appliquée aux voitures autonomes, le vice-président de Cortica, Patrick Flynn, a expliqué que la société s'efforce de rendre le logiciel efficace et fiable afin de fournir les données de classification les plus précises. possible. Ce que les clients font avec ces informations – arrêter une voiture ou la faire accélérer pour éviter un accident, par exemple – dépend d’eux. La même chose s’appliquerait à la manière dont une ville ou un gouvernement pourrait allouer les ressources policières.

« Les décisions politiques se situent strictement en dehors du domaine de Cortica », a déclaré Flynn.

Abandonnerions-nous la confidentialité pour améliorer la sécurité ?

Néanmoins, le mariage de l’IA avec les réseaux omniprésents des webcams commence à générer davantage d’anxiété quant à la vie privée et à la liberté personnelle. Et ce ne sont pas seulement les gouvernements despotiques étrangers qui inquiètent les gens.

À la Nouvelle-Orléans, le maire Mitch Landrieu a proposé un plan de surveillance de 40 millions de dollars pour lutter contre la criminalité, qui comprend mettre en réseau les caméras municipales avec les flux en direct des webcams privées exploitées par les entreprises et personnes. Cette proposition a déjà suscité des protestations publiques de la part des travailleurs immigrés, inquiets du fait que les agents fédéraux de l'immigration utiliseraient les caméras pour traquer les travailleurs sans papiers et les expulser.

Algorithme aidant la police à prédire le crime | Mach | Actualités NBC

Pendant ce temps, comme des sujets piégés dans un Miroir noir Dans le monde entier, les consommateurs se soumettent peut-être déjà involontairement à une telle surveillance alimentée par l’IA. 249 $ de Google Caméra clipsable, par exemple, utilise une forme rudimentaire d’IA pour prendre automatiquement des photos lorsqu’il voit quelque chose qu’il juge important. Amazon, dont Alexa fait déjà l'objet d'une paranoïa d'écoute clandestine, a acheté la célèbre société de sonnettes vidéo Ring. GE Appliances prévoit également de lancer un hub équipé d'une caméra vidéo pour les cuisines plus tard cette année. En Europe, Electrolux lancera cette année un four à vapeur avec une webcam intégrée.

Alors que ces technologies font planer le spectre de Big Brother surveillant chacun de nos mouvements, il reste l’espoir louable qu’en utilisant IA sophistiquée comme le programme de Cortica pourrait améliorer la sécurité, l’efficacité et sauver des vies. On ne peut s’empêcher de se demander, par exemple, ce qui se serait passé si une telle technologie était disponible et utilisée dans l'Uber que Nikolas Cruz, 19 ans, a pris pour assassiner 17 personnes au lycée Marjory Stoneman Douglas École. Le chauffeur d'Uber n'a rien remarqué d'anormal chez Cruz, mais une caméra équipée d'une IA aurait-elle pu détecter des microexpressions révélant ses intentions et alerter la police? À l’avenir, nous le saurons peut-être.