Ar A.I. pagrįstas stebėjimas galėtų numatyti nusikaltimą prieš jam įvykstant?

Dirbtinio intelekto programos pažadu padaryti viską, nuo orų prognozavimo iki autonominių automobilių pilotavimo. Dabar dirbtinis intelektas taikomas vaizdo stebėjimo sistemoms, žadama sužlugdyti nusikalstamą veiklą ne nustatant vykdomus nusikaltimus, o nustatant nusikaltimą – prieš tai įvykstant. Tikslas yra užkirsti kelią smurtui, pvz., seksualinei prievartai, tačiau tai gali būti padaryta žavingi ketinimai pavirsti Mažumos ataskaita-košmarai prieš nusikaltimą?

Tokia galimybė gali atrodyti kaip siužeto linija iš epizodo Juodas veidrodis, bet tai nebėra mokslinės fantastikos dalykas. Cortica, Izraelio įmonė, turinti gilias šaknis saugumo ir AI tyrimai, neseniai įkūrė bendriją Indijoje su „Best Group“, kad analizuotų duomenų srautų terabaitus iš vaizdo stebėjimo kamerų viešose vietose. Vienas iš tikslų – pagerinti saugumą viešose vietose, pavyzdžiui, miesto gatvėse, autobusų stotelėse, traukinių stotyse.

Tai jau įprasta teisėsaugai tokiuose miestuose kaip Londonas ir Niujorkas naudoti veido atpažinimą

ir valstybinio numerio atitikimą kaip jų vaizdo kameros stebėjimo dalį. Tačiau „Cortica“ dirbtinis intelektas žada tai padaryti daug toliau, ieškodamas „elgesio anomalijų“, rodančių, kad kažkas ruošiasi įvykdyti smurtinį nusikaltimą.

Programinė įranga yra pagrįsta karinių ir vyriausybinių saugumo patikrinimo sistemomis, kurios bando identifikuoti teroristus stebint žmonės realiuoju laiku, ieškantys vadinamųjų mikroraiškų – menkų trūkčiojimų ar manierų, galinčių paneigti žmogaus niekšiškumą ketinimų. Tokie įspėjamieji ženklai yra tokie maži, kad gali išvengti patyrusio detektyvo, bet ne nemirksinčios AI.

Tel Avive įvykusiame susitikime prieš paskelbiant sandorį viena įkūrėja ir COO Karina Odinajev paaiškino, kad „Cortica“ programinė įranga skirta spręsti problemas, kylančias identifikuojant objektus, kurie nėra lengvai klasifikuojami pagal tradicinius stereotipus. Vienas Odinajevo aprašytas pavyzdys kampiniai dėklai (pvz., nuo sunkvežimio greitkelyje nukritusi lova), su kuriomis susiduriama vairuojant, būtent unikalių įvykių, kuriuos autonominius automobilius valdančios programos turės sugebėti valdyti ateities.

„Tam jums reikia neprižiūrimo mokymosi“, - sakė Odinajevas. Kitaip tariant, programinė įranga turi mokytis taip pat, kaip mokosi žmonės.

Eina tiesiai į smegenis

Cortica AI programinė įranga monitoriai žmonės realiuoju laiku, ieškodami mikroraiškų – menkų trūkčiojimų ar manierų, galinčių paneigti niekšiškus žmogaus ketinimus.

Norėdami sukurti tokią programą, „Cortica“ nesiėmė neuroninio tinklo maršrutas (kuris, nepaisant pavadinimo, yra pagrįstas tikimybėmis ir skaičiavimo modeliais, o ne tuo, kaip veikia tikrosios smegenys). Vietoj to, Cortica nuvyko į šaltinį, šiuo atveju į žiurkės smegenų segmentą. Išlaikydama smegenų gabalėlį gyvą ex vivo (už kūno ribų) ir prijungdama ją prie mikroelektrodų matricos, Cortica sugebėjo ištirti, kaip žievė reaguoja į tam tikrus dirgiklius. Stebėdami elektrinius signalus, mokslininkai sugebėjo nustatyti konkrečias neuronų grupes, vadinamas klikomis, kurios apdorojo konkrečias sąvokas. Iš ten bendrovė sukūrė parašo failus ir matematinius modelius, kad imituotų pradinius procesus smegenyse.

Rezultatas, pasak Cortica, yra požiūris į dirbtinį intelektą, leidžiantis tobulėti, išlaikant skaidrumą. Kitaip tariant, jei sistema padaro klaidą – tarkime, ji klaidingai numato, kad tuoj prasidės riaušės arba kad priekyje važiuojantis automobilis. ištraukite iš važiuojamosios dalies – programuotojai gali lengvai atsekti problemą iki proceso ar parašo failo, atsakingo už klaidingą nuosprendį. (Supriešinkite tai su vadinamaisiais giluminio mokymosi neuroniniais tinklais, kurie iš esmės yra juodosios dėžės ir gali tekti visiškai iš naujo išmokyti, jei jie padaro klaidą.)

Iš pradžių „Cortica“ autonominį dirbtinį intelektą naudos „Best Group“ Indijoje, kad analizuotų didžiulius duomenų kiekius, kuriuos viešose vietose generuoja kameros, siekiant pagerinti saugumą ir efektyvumą. „Best Group“ yra įvairi infrastruktūros plėtros įmonė ir pagrindinė tiekėja vyriausybės ir statybų klientams. Taigi ji nori išmokti atskirti, kada viskas vyksta sklandžiai, o kada ne.

Ekranas, kuriame rodoma veido atpažinimo sistema, skirta teisėsaugai per NVIDIA GPU technologijų konferenciją, kurioje demonstruojamas dirbtinis intelektas, gilus mokymasis, virtuali realybė ir autonominiai įrenginiai.Saulius Loebas / AFP / „Getty Images“.

Tačiau tikimasi, kad „Cortica“ programinė įranga ateityje padarys daug daugiau. Jis galėtų būti naudojamas ateityje robotaksyje, siekiant stebėti keleivių elgesį ir, pavyzdžiui, užkirsti kelią seksualiniams išpuoliams. „Cortica“ programinė įranga taip pat gali sujungti duomenis ne tik iš vaizdo kamerų, bet ir iš dronų bei palydovų. Ir ji gali išmokti spręsti apie elgesio skirtumus, ne tik tarp įstatymų besilaikančių piliečių ir buvusių nusikaltėlių, bet ir tarp taikaus perpildytos rinkos ir politinės demonstracijos, kuri tuoj virs smurtinis.

Tokia nuspėjamoji informacija leistų miestui nukreipti teisėsaugą į potencialiai pavojingą situaciją, kol nežūs gyvybės. Tačiau netinkamose rankose juo taip pat gali būti piktnaudžiaujama. Pavyzdžiui, despotiškas režimas gali panaudoti tokią informaciją, kad nuslopintų nesutarimus ir suimtų žmones, jiems net nespėjus surengti protesto.

Nuspėjamoji nusikaltimų programinė įranga leistų miestui nukreipti teisėsaugą į potencialiai pavojingą situaciją prieš prarandant gyvybes. Tačiau netinkamose rankose juo taip pat gali būti piktnaudžiaujama.

Niujorke, demonstruodamas, kaip „Cortica“ autonominis AI taikomas autonominiams automobiliams, „Cortica“ viceprezidentas Patrickas Flynnas paaiškino, kad bendrovė siekia, kad programinė įranga būtų efektyvi ir patikima, kad būtų pateikti tiksliausi klasifikavimo duomenys. galima. Ką klientai daro su ta informacija – pavyzdžiui, sustabdo automobilį ar pagreitina, kad išvengtų avarijos – priklauso nuo jų pačių. Tas pats pasakytina apie tai, kaip miestas ar vyriausybė galėtų paskirstyti policijos išteklius.

„Politikos sprendimai yra griežtai už Cortica srities ribų“, - sakė Flynnas.

Ar atsisakytume privatumo, kad pagerintume saugumą?

Nepaisant to, AI susiejimas su tinklais, kuriuose visur yra internetinių kamerų, pradeda kelti daugiau nerimo dėl privatumo ir asmeninės laisvės. Ir žmonės nerimauja ne tik dėl užsienio despotiškų vyriausybių.

Naujajame Orleane meras Mitchas Landrieu pasiūlė 40 mln. savivaldybių kamerų sujungimas su tiesioginiais srautais iš privačių interneto kamerų, kurias valdo įmonės ir asmenys. Šis pasiūlymas jau sulaukė visuomenės protestų iš darbuotojų imigrantų, susirūpinusių, kad federaliniai imigracijos pareigūnai naudos kameras, kad gautų dokumentų neturinčius darbuotojus ir juos deportuotų.

Algoritmas, padedantis policijai nuspėti nusikaltimus | Mach | NBC naujienos

Tuo tarpu kaip subjektai, įstrigę a Juodas veidrodis Pasaulyje vartotojai jau gali nesąmoningai pasiduoti tokiai AI valdomai priežiūrai. „Google“ 249 USD Kameros klipaiPavyzdžiui, naudoja elementarią AI formą, kad automatiškai padarytų nuotraukas, kai pamato tai, kas, jo nuomone, yra reikšminga. Amazon, kurio Alexa jau yra pasiklausymo paranojos objektas, įsigijo populiarią vaizdo durų skambučio kompaniją „Ring“. „GE Appliances“ taip pat planuoja vėliau šiais metais debiutuoti virtuvėms skirtą vaizdo kamerų centrą. Europoje „Electrolux“ šiais metais debiutuos garų orkaitę su įmontuota interneto kamera.

Nors šios technologijos kelia didžiojo brolio šmėklą stebėti kiekvieną mūsų žingsnį, vis dar yra pagirtina viltis, kad naudojant sudėtingas AI kaip Cortica programa galėtų pagerinti saugumą, efektyvumą ir išgelbėti gyvybes. Pavyzdžiui, negalime susimąstyti, kas būtų nutikę, jei tokia technologija būtų prieinama ir naudojama „Uber“, kurį 19-metis Nikolasas Cruzas paėmė, kad nužudytų 17 žmonių Marjory Stoneman Douglas High. Mokykla. „Uber“ vairuotojas nepastebėjo nieko blogo su Cruz, bet ar AI įrengta kamera galėjo aptikti mikroekspresijas, atskleidžiančias jo ketinimus ir įspėti policiją? Ateityje galbūt sužinosime.