Чи може система спостереження на основі штучного інтелекту передбачити злочин до того, як він станеться?

Програми штучного інтелекту обіцяють все зробити, від передбачення погоди до пілотування автономних автомобілів. Зараз штучний інтелект використовується в системах відеоспостереження, обіцяючи перешкоджати злочинній діяльності не шляхом виявлення злочинів, що відбуваються, а шляхом ідентифікації злочину — до того, як він станеться. Мета полягає в тому, щоб запобігти насильству, такому як сексуальні напади, але можливо таке чудові наміри перетворитися Звіт меншостіпередзлочинні кошмари?

Така можливість може здатися сюжетною лінією з епізоду Чорне дзеркало, але це вже не наукова фантастика. Cortica, ізраїльська компанія з глибоким корінням у галузі безпеки та Дослідження ШІ, нещодавно створили товариство в Індії з Best Group для аналізу терабайтів потокових даних з камер відеоспостереження в громадських місцях. Однією з цілей є підвищення безпеки в громадських місцях, таких як вулиці міста, автобусні зупинки та вокзали.

Для правоохоронних органів у таких містах, як Лондон і Нью-Йорк, це вже звично

використовувати розпізнавання обличчя і зіставлення номерних знаків у рамках відеоспостереження. Але штучний інтелект Cortica обіцяє зробити це набагато далі, шукаючи «поведінкові аномалії», які вказують на те, що хтось збирається вчинити жорстокий злочин.

Програмне забезпечення базується на типі військових і урядових систем перевірки безпеки, які намагаються ідентифікувати терористів шляхом моніторингу людей у ​​режимі реального часу, шукаючи так звані мікровирази — незначні посмикування чи манери, які можуть заперечити мерзенність людини наміри. Такі контрольні ознаки настільки малі, що вони можуть вислизнути від досвідченого детектива, але не від немигаючого ока ШІ.

На зустрічі в Тель-Авіві перед оголошенням про угоду співзасновник і головний операційний директор Карина Одинаєв пояснила, що програмне забезпечення Cortica призначений для вирішення проблем у ідентифікації об’єктів, які нелегко класифікувати відповідно до традиційних стереотипів. Один із прикладів Одинаєв описав участь кутові шафи (наприклад, ліжко, що падає з вантажівки на шосе), які трапляються під час водіння, саме такі унікальні події, які програми, що керують автономними автомобілями, повинні будуть вміти обробляти майбутнє.

«Для цього потрібне неконтрольоване навчання», — сказав Одинаєв. Іншими словами, програмне забезпечення має навчатися так само, як навчаються люди.

Прямо в мозок

Програмне забезпечення ШІ Cortica монітори людей у ​​режимі реального часу, шукаючи мікровирази — незначні посмикування чи манери, які можуть спростувати підлі наміри людини.

На створення такої програми Cortica не пішла маршрут нейронної мережі (який, незважаючи на свою назву, базується на ймовірностях і обчислювальних моделях, а не на тому, як працює справжній мозок). Замість цього Cortica пішла до джерела, в даному випадку кортикального сегмента мозку щура. Підтримуючи живий шматок мозку ex vivo (поза тілом) і підключаючи його до масиву мікроелектродів, Cortica зміг вивчити, як кора реагує на певні подразники. Відстежуючи електричні сигнали, дослідники змогли ідентифікувати конкретні групи нейронів, які називаються кліками, які обробляли певні концепції. Звідти компанія створила файли підписів і математичні моделі для моделювання оригінальних процесів у мозку.

Результатом, за словами Cortica, є підхід до ШІ, який дозволяє розширене навчання, залишаючись прозорим. Іншими словами, якщо система робить помилку — скажімо, вона хибно передбачає, що ось-ось спалахне бунт або що машина, що їде попереду, збирається вийти з під’їзду — програмісти можуть легко відстежити проблему назад до процесу або файлу підпису, відповідального за помилку судження. (Порівняйте це з так званими нейронними мережами глибокого навчання, які, по суті, є чорними ящиками, і, можливо, їх доведеться повністю перенавчати, якщо вони припустилися помилки.)

Спочатку Autonomous AI Cortica буде використовуватися компанією Best Group в Індії для аналізу величезних обсягів даних, створених камерами в громадських місцях, для підвищення безпеки та ефективності. Best Group — багатопрофільна компанія, яка займається розвитком інфраструктури та основним постачальником для державних і будівельних клієнтів. Тому він хоче навчитися розрізняти, коли все йде гладко, а коли ні.

Дисплей із системою розпізнавання обличчя для правоохоронних органів під час NVIDIA GPU Technology Conference, яка демонструє штучний інтелект, глибоке навчання, віртуальну реальність і автономні машини.Сол Леб/AFP/Getty Images

Але є надія, що програмне забезпечення Cortica зробить значно більше в майбутньому. Його можна буде використовувати в майбутніх роботаксі, наприклад, для моніторингу поведінки пасажирів і запобігання сексуальним насильствам. Програмне забезпечення Cortica також може об’єднувати дані не лише з відеокамер, а й із дронів і супутників. І він може навчитися оцінювати поведінкові відмінності не лише між законослухняними громадянами та колишніми злочинців, а й між мирним багатолюдним ринком і політичною демонстрацією, яка ось-ось обернеться жорстокий.

Така прогностична інформація дозволить місту розгорнути правоохоронні органи в потенційно небезпечній ситуації до того, як загинуть люди. Однак у чужих руках нею також можуть зловживати. Деспотичний режим, наприклад, може використовувати таку інформацію для придушення інакомислення та арешту людей до того, як вони навіть матимуть шанс організувати протест.

Програмне забезпечення для прогнозування злочинів дозволить місту задіяти правоохоронні органи в потенційно небезпечній ситуації до того, як загинуть люди. Однак у чужих руках нею також можуть зловживати.

У Нью-Йорку віце-президент Cortica Патрік під час демонстрації того, як автономний штучний інтелект Cortica використовується в автономних автомобілях Флінн пояснив, що компанія зосереджена на тому, щоб зробити програмне забезпечення ефективним і надійним для надання найточніших даних класифікації можливо. Що робити клієнтам із цією інформацією — зупиняти автомобіль чи пришвидшити, наприклад, щоб уникнути аварії — вирішувати їм. Те саме стосуватиметься того, як місто чи уряд можуть розподіляти поліцейські ресурси.

«Рішення про політику приймаються виключно за межами зони Кортіки», — сказав Флінн.

Чи відмовилися б ми від конфіденційності заради покращення безпеки?

Тим не менш, поєднання штучного інтелекту з мережами, у яких є всюдисущі веб-камери, починає викликати більше занепокоєння щодо конфіденційності та особистої свободи. І люди непокоїться не лише через іноземні деспотичні уряди.

У Новому Орлеані мер Мітч Ландріє запропонував план стеження для боротьби зі злочинністю вартістю 40 мільйонів доларів, який включає об’єднання в мережу муніципальних камер із живими трансляціями з приватних веб-камер, якими керують підприємства особи. Ця пропозиція вже викликала публічні протести з боку працівників-іммігрантів, стурбованих тим, що федеральні імміграційні службовці використовуватимуть камери для полювання на працівників без документів та їх депортації.

Алгоритм, який допомагає поліції передбачити злочин | Мах | Новини NBC

Тим часом, як суб'єкти, що потрапили в пастку a Чорне дзеркало У світі споживачі вже можуть мимоволі піддаватися такому нагляду за допомогою ШІ. Google 249 доларів Кліпи камери, наприклад, використовує елементарну форму штучного інтелекту, щоб автоматично робити знімки, коли бачить щось важливе. Amazon, чий Алекса вже є предметом параної підслуховування, придбала популярну компанію Ring, що займається відеодзвінками. GE Appliances також планує представити відеокамеру для кухонь пізніше цього року. Цього року в Європі Electrolux представить парову духовку з вбудованою веб-камерою.

Хоча ці технології піднімають привид Великого Брата стежить за кожним нашим кроком, все ще є похвальна надія, що використання складний ШІ наприклад, програма Cortica може підвищити безпеку, ефективність і врятувати життя. Не можна не запитати, наприклад, що було б, якби така технологія була доступна та використовувалася в Uber, яким 19-річний Ніколас Круз їхав, щоб убити 17 людей у ​​Marjory Stoneman Douglas High Школа. Водій Uber не помітив нічого поганого з Крузом, але чи могла камера, оснащена штучним інтелектом, виявити мікровирази, що розкривають його наміри, і повідомити поліцію? У майбутньому ми можемо дізнатися.