Program kecerdasan buatan berjanji untuk melakukan segalanya, mulai dari memprediksi cuaca hingga mengemudikan mobil otonom. Kini AI diterapkan pada sistem pengawasan video, yang menjanjikan untuk menggagalkan aktivitas kriminal bukan dengan mendeteksi kejahatan yang sedang berlangsung, namun dengan mengidentifikasi kejahatan – sebelum kejahatan itu terjadi. Tujuannya adalah untuk mencegah kekerasan seperti kekerasan seksual, namun bisa juga demikian niat yang mengagumkan berubah menjadi Laporan Minoritas-mimpi buruk sebelum kejahatan?
Kemungkinan seperti itu mungkin tampak seperti alur cerita dari sebuah episode Kaca hitam, tapi ini bukan lagi bagian dari fiksi ilmiah. Cortica, sebuah perusahaan Israel yang berakar kuat di bidang keamanan dan penelitian AI, baru-baru ini membentuk kemitraan di India dengan Best Group untuk menganalisis terabyte data streaming dari kamera CCTV di area publik. Salah satu tujuannya adalah meningkatkan keselamatan di tempat umum, seperti jalan kota, halte, dan stasiun kereta.
Penegakan hukum di kota-kota seperti London dan New York sudah menjadi hal yang lumrah menggunakan pengenalan wajah dan pencocokan plat nomor sebagai bagian dari pengawasan kamera video mereka. Namun AI Cortica berjanji untuk mengambil tindakan lebih jauh dengan mencari “anomali perilaku” yang menandakan seseorang akan melakukan kejahatan kekerasan.
Perangkat lunak ini didasarkan pada jenis sistem penyaringan keamanan militer dan pemerintah yang mencoba mengidentifikasi teroris melalui pemantauan orang-orang secara real-time, mencari apa yang disebut ekspresi mikro — kedutan kecil atau tingkah laku yang dapat memungkiri kejahatan seseorang niat. Tanda-tanda seperti itu sangat kecil sehingga bisa luput dari perhatian detektif berpengalaman, namun tidak bisa dideteksi oleh AI yang tidak berkedip.
Pada pertemuan di Tel Aviv sebelum kesepakatan diumumkan, salah satu pendiri dan COO Karina Odinaev menjelaskan bahwa perangkat lunak Cortica dimaksudkan untuk mengatasi tantangan dalam mengidentifikasi objek yang tidak mudah diklasifikasikan berdasarkan stereotip tradisional. Salah satu contoh yang digambarkan Odinaev terlibat kasus sudut (seperti tempat tidur yang jatuh dari truk di jalan raya) yang tepatnya ditemui dalam situasi mengemudi jenis peristiwa unik yang harus dapat ditangani oleh program pengendalian mobil otonom masa depan.
“Untuk itu, Anda memerlukan pembelajaran tanpa pengawasan,” kata Odinaev. Dengan kata lain, perangkat lunak harus belajar dengan cara yang sama seperti manusia belajar.
Langsung ke otak
Perangkat lunak AI Cortica monitor orang-orang secara real-time, mencari ekspresi mikro — kedutan kecil atau tingkah laku yang dapat memungkiri niat jahat seseorang.
Untuk membuat program seperti itu, Cortica tidak melakukan hal tersebut rute jaringan saraf (meskipun namanya didasarkan pada probabilitas dan model komputasi, bukan cara kerja otak sebenarnya). Sebaliknya, Cortica menuju ke sumbernya, dalam hal ini segmen kortikal otak tikus. Dengan menjaga sepotong otak tetap hidup secara ex vivo (di luar tubuh) dan menghubungkannya ke rangkaian mikroelektroda, Cortica dapat mempelajari bagaimana korteks bereaksi terhadap rangsangan tertentu. Dengan memantau sinyal listrik, para peneliti dapat mengidentifikasi kelompok neuron tertentu yang disebut kelompok yang memproses konsep tertentu. Dari sana, perusahaan membuat file tanda tangan dan model matematika untuk mensimulasikan proses asli di otak.
Hasilnya, menurut Cortica, adalah pendekatan AI yang memungkinkan pembelajaran tingkat lanjut namun tetap transparan. Dengan kata lain, jika sistem membuat kesalahan — katakanlah, sistem tersebut secara salah mengantisipasi bahwa akan terjadi kerusuhan atau mobil di depannya akan segera terjadi. keluar dari jalan masuk — pemrogram dapat dengan mudah melacak masalah kembali ke proses atau file tanda tangan yang bertanggung jawab atas kesalahan tersebut pertimbangan. (Bandingkan hal ini dengan apa yang disebut jaringan saraf pembelajaran mendalam, yang pada dasarnya adalah kotak hitam dan mungkin harus dilatih ulang sepenuhnya jika membuat kesalahan.)
Awalnya, Autonomous AI Cortica akan digunakan oleh Best Group di India untuk menganalisis sejumlah besar data yang dihasilkan oleh kamera di tempat umum guna meningkatkan keselamatan dan efisiensi. Best Group adalah perusahaan terdiversifikasi yang terlibat dalam pembangunan infrastruktur dan pemasok utama bagi klien pemerintah dan konstruksi. Jadi mereka ingin belajar bagaimana mengetahui kapan segala sesuatunya berjalan lancar – dan kapan tidak.
Namun perangkat lunak Cortica diharapkan dapat melakukan lebih banyak hal di masa depan. Misalnya, robotaxis dapat digunakan di masa depan untuk memantau perilaku penumpang dan mencegah kekerasan seksual. Perangkat lunak Cortica juga dapat menggabungkan data tidak hanya dari kamera video, tapi juga dari drone dan satelit. Dan pemerintah dapat belajar untuk menilai perbedaan perilaku, tidak hanya antara warga negara yang taat hukum dan masyarakat sebelumnya penjahat, tetapi juga antara pasar yang ramai dan damai dan demonstrasi politik yang akan segera terjadi brutal.
Informasi prediktif seperti itu akan memungkinkan sebuah kota untuk menerapkan penegakan hukum pada situasi yang berpotensi berbahaya sebelum ada korban jiwa. Namun, jika berada di tangan yang salah, hal ini juga bisa disalahgunakan. Rezim yang lalim, misalnya, mungkin menggunakan informasi tersebut untuk menekan perbedaan pendapat dan menangkap orang-orang bahkan sebelum mereka sempat mengorganisir protes.
Perangkat lunak kejahatan prediktif akan memungkinkan kota untuk menerapkan penegakan hukum pada situasi yang berpotensi berbahaya sebelum ada korban jiwa. Namun, jika berada di tangan yang salah, hal ini juga bisa disalahgunakan.
Di New York City, saat demonstrasi bagaimana AI Otonomi Cortica diterapkan pada mobil otonom, wakil presiden Cortica, Patrick Flynn menjelaskan, perusahaan fokus membuat perangkat lunak menjadi efisien dan andal untuk menghasilkan data klasifikasi paling akurat mungkin. Apa yang klien lakukan dengan informasi tersebut — menghentikan mobil atau mempercepatnya untuk menghindari kecelakaan, misalnya — terserah mereka. Hal serupa juga berlaku pada cara kota atau pemerintah mengalokasikan sumber daya kepolisian.
“Keputusan kebijakan sepenuhnya berada di luar wilayah Cortica,” kata Flynn.
Akankah kita melepaskan privasi demi meningkatkan keamanan?
Namun demikian, penggabungan AI dengan jaringan webcam mulai menimbulkan lebih banyak kekhawatiran tentang privasi dan kebebasan pribadi. Dan bukan hanya pemerintahan asing yang lalim saja yang dikhawatirkan oleh masyarakat.
Di New Orleans, Walikota Mitch Landrieu telah mengusulkan rencana pengawasan pemberantasan kejahatan senilai $40 juta, yang mencakup: menghubungkan kamera kota dengan siaran langsung dari webcam pribadi yang dioperasikan oleh bisnis dan individu. Proposal tersebut telah menuai protes publik dari para pekerja imigran yang khawatir bahwa pejabat imigrasi federal akan menggunakan kamera tersebut untuk memburu pekerja tidak berdokumen dan mendeportasi mereka.
Algoritma Membantu Polisi Memprediksi Kejahatan | Mach | Berita NBC
Sementara itu, seperti subjek yang terjebak dalam a Kaca hitam Di dunia, konsumen mungkin tanpa sadar telah melakukan pengawasan yang didukung AI. Google $249 Klip kamera, misalnya, menggunakan bentuk AI yang belum sempurna untuk mengambil gambar secara otomatis ketika melihat sesuatu yang dianggap penting. Amazon, milik siapa Alexa sudah menjadi subjek paranoia penyadapan, telah membeli perusahaan bel pintu video populer Ring. GE Appliances juga berencana meluncurkan hub yang dilengkapi kamera video untuk dapur pada akhir tahun ini. Di Eropa, Electrolux akan meluncurkan oven uap tahun ini dengan webcam internal.
Sementara teknologi tersebut memunculkan momok Big Brother mengawasi setiap gerak-gerik kami, masih ada harapan terpuji untuk menggunakan AI yang canggih seperti program Cortica yang dapat meningkatkan keselamatan, efisiensi, dan menyelamatkan nyawa. Kita pasti bertanya-tanya, misalnya, apa yang akan terjadi jika teknologi seperti itu tersedia dan digunakan Uber yang digunakan Nikolas Cruz yang berusia 19 tahun dalam perjalanannya untuk membunuh 17 orang di SMA Marjory Stoneman Douglas Sekolah. Pengemudi Uber tidak melihat ada yang salah dengan Cruz, tetapi bisakah kamera yang dilengkapi AI mendeteksi ekspresi mikro yang mengungkapkan niatnya dan memberi tahu polisi? Di masa depan, kita mungkin akan mengetahuinya.