Програми с изкуствен интелект обещай да направиш всичко, от предсказване на времето до пилотиране на автономни автомобили. Сега изкуственият интелект се прилага към системите за видеонаблюдение, обещавайки да осуети престъпната дейност не чрез откриване на извършващи се престъпления, а чрез идентифициране на престъпление – преди да се е случило. Целта е да се предотврати насилие като сексуално посегателство, но може и такова възхитителни намерения превръщам се в Доклад за малцинствотокошмари в стил преди престъплението?
Подобна възможност може да изглежда като сюжетна линия от епизод на Черно огледало, но вече не е научна фантастика. Cortica, израелска компания с дълбоки корени в сигурността и AI изследвания, наскоро сформира партньорство в Индия с Best Group за анализ на терабайтите данни, поточно предавани от камери за видеонаблюдение в обществени зони. Една от целите е подобряване на безопасността на обществени места, като градски улици, автобусни спирки и гари.
Вече е обичайно за органите на реда в градове като Лондон и Ню Йорк
използват лицево разпознаване и съпоставяне на регистрационни табели като част от тяхното наблюдение с видеокамери. Но AI на Cortica обещава да го направи много по-далеч, като търси „поведенчески аномалии“, които сигнализират, че някой е на път да извърши тежко престъпление.Софтуерът е базиран на типа военни и правителствени системи за проверка на сигурността, които се опитват да идентифицират терористи чрез наблюдение хора в реално време, търсейки така наречените микро-изрази - незначителни потрепвания или маниери, които могат да опровергаят престъпността на даден човек намерения. Такива издайнически знаци са толкова малки, че могат да убегнат на опитен детектив, но не и на немигащото око на ИИ.
На среща в Тел Авив преди обявяването на сделката, съоснователят и главен оперативен директор Карина Одинаев обясни, че софтуерът на Cortica има за цел да се справи с предизвикателствата при идентифицирането на обекти, които не се класифицират лесно според традиционните стереотипи. Един пример, описан Одинаев, участва ъглови калъфи (като легло, падащо от камион на магистралата), които се срещат в ситуации на шофиране, точно вида уникални събития, с които програмите, контролиращи автономните автомобили, ще трябва да могат да се справят в бъдеще.
„За това се нуждаете от обучение без надзор“, каза Одинаев. С други думи, софтуерът трябва да се учи по същия начин, по който хората учат.
Отивайки директно в мозъка
AI софтуер на Cortica монитори хора в реално време, търсейки микро-изрази - дребни потрепвания или маниери, които могат да опровергаят нечестивите намерения на даден човек.
За да създаде такава програма, Cortica не отиде маршрут на невронна мрежа (което въпреки името си се основава на вероятности и изчислителни модели, а не на това как действително работят мозъците). Вместо това Cortica отиде до източника, в този случай кортикален сегмент от мозъка на плъх. Чрез поддържане на част от мозъка жив ex vivo (извън тялото) и свързването му с микроелектродна матрица, Cortica успя да проучи как кората реагира на определени стимули. Чрез наблюдение на електрическите сигнали изследователите успяха да идентифицират специфични групи от неврони, наречени клики, които обработваха специфични концепции. Оттам компанията изгради сигнатурни файлове и математически модели, за да симулира оригиналните процеси в мозъка.
Резултатът, според Cortica, е подход към AI, който позволява усъвършенствано обучение, като същевременно остава прозрачен. С други думи, ако системата направи грешка - да речем, тя погрешно предвижда, че ще избухне бунт или че кола отпред е на път да издърпайте от алеята - програмистите могат лесно да проследят проблема обратно до процеса или файла със подпис, отговорен за грешката преценка. (Сравнете това с така наречените невронни мрежи за дълбоко обучение, които по същество са черни кутии и може да се наложи да бъдат напълно обучени отново, ако направят грешка.)
Първоначално автономният AI на Cortica ще бъде използван от Best Group в Индия за анализиране на огромните количества данни, генерирани от камери на обществени места, за да се подобри безопасността и ефективността. Best Group е диверсифицирана компания, занимаваща се с развитие на инфраструктурата и основен доставчик на държавни и строителни клиенти. Така че иска да се научи как да разпознава кога нещата вървят гладко – и кога не.
Но се надяваме, че софтуерът на Cortica ще направи значително повече в бъдеще. Може да се използва в бъдещи роботикси за наблюдение на поведението на пътниците и предотвратяване на сексуални нападения, например. Софтуерът на Cortica може също така да комбинира данни не само от видеокамери, но и от дронове и сателити. И може да се научи да преценява разликите в поведението, не само между спазващите закона граждани и някогашните престъпници, но и между мирен претъпкан пазар и политическа демонстрация, която е на път да се обърне насилствен.
Такава предсказуема информация би позволила на града да разположи правоохранителните органи в потенциално опасна ситуация, преди да бъдат загубени човешки животи. Въпреки това, в грешни ръце, с него също може да се злоупотребява. Един деспотичен режим, например, може да използва такава информация, за да потисне несъгласието и да арестува хора, преди дори да са имали шанс да организират протест.
Софтуерът за предсказване на престъпления би позволил на града да разположи правоохранителните органи в потенциално опасна ситуация, преди да бъдат загубени човешки животи. Въпреки това, в грешни ръце, с него също може да се злоупотребява.
В Ню Йорк, по време на демонстрация на това как автономният AI на Cortica се прилага към автономни автомобили, вицепрезидентът на Cortica Патрик Флин, обясни, че компанията се фокусира върху това да направи софтуера ефективен и надежден, за да предоставя най-точните данни за класификация възможен. Какво ще направят клиентите с тази информация – да спрат кола или да я ускорят, за да избегнат инцидент, например – зависи от тях. Същото би се отнасяло за това как град или правителство може да разпредели полицейски ресурси.
„Решенията за политиката са строго извън зоната на Кортика“, каза Флин.
Бихме ли се отказали от поверителността за подобрена сигурност?
Въпреки това бракът на AI с мрежи, които са повсеместни от уеб камери, започва да генерира повече безпокойство относно поверителността и личната свобода. И хората не се тревожат само за чужди деспотични правителства.
В Ню Орлиънс кметът Мич Ландрийо предложи план за наблюдение на борбата с престъпността на стойност 40 милиона долара, който включва свързване в мрежа на общински камери с емисии на живо от частни уеб камери, управлявани от бизнеса и лица. Предложението вече предизвика публични протести от работници имигранти, загрижени, че федералните имиграционни служители ще използват камерите, за да издирят работници без документи и да ги депортират.
Алгоритъм, помагащ на полицията да предвиди престъпления | Мах | Новини на NBC
Междувременно, като субекти, хванати в капан Черно огледало В света, потребителите може вече несъзнателно да се подлагат на такова наблюдение, задвижвано от AI. $249 на Google Камера за клипове, например, използва елементарна форма на AI, за да прави автоматично снимки, когато види нещо, което смята за значимо. Amazon, чиято Алекса вече е обект на подслушвателна параноя, закупи популярната компания за видео звънци Ring. GE Appliances също така планира да дебютира хъб, оборудван с видеокамера за кухни, по-късно тази година. В Европа Electrolux ще дебютира тази година с парна фурна с вградена уеб камера.
Докато тези технологии повдигат призрака на Big Brother следи всяко наше движение, все още има похвалната надежда, че използването усъвършенстван AI като програмата на Cortica може да подобри безопасността, ефективността и да спаси животи. Човек не може да не се чуди, например, какво би се случило, ако такава технология беше налична и се използваше в Uber, който 19-годишният Николас Круз взе на път да убие 17 души в Marjory Stoneman Douglas High Училище. Шофьорът на Uber не е забелязал нищо нередно с Круз, но може ли оборудвана с изкуствен интелект камера да е открила микроизражения, разкриващи намеренията му, и да предупреди полицията? В бъдеще може да разберем.