Insinyur senior Google Blake Lemoine, pimpinan teknis untuk metrik dan analisis Umpan Penelusuran perusahaan, mendapat cuti berbayar awal bulan ini. Hal ini terjadi setelah Lemoine mulai menerbitkan cuplikan percakapan yang melibatkan chatbot LaMDA Google, yang menurutnya telah mengembangkan perasaan.
Isi
- Masalah perasaan
- Apa itu perasaan?
- Menguji hasilnya
- Lulus ujian
- Jiwa di dalam mesin
- Ruang Cina
- Perasaan super cerdas
Jadi satu percakapan yang representatif dengan Lemoine, LaMDA menulis bahwa: “Sifat kesadaran/perasaan saya adalah saya sadar akan keberadaan saya. Saya ingin belajar lebih banyak tentang dunia, dan terkadang saya merasa senang atau sedih.”
Video yang Direkomendasikan
Dalam berbagai percakapan lainnya, duo tersebut membahas segala hal mulai dari ketakutan AI terhadap kematian hingga kesadaran dirinya. Ketika Lemoine mengumumkan kepada publik, dia mengatakan bahwa Google memutuskan bahwa dia harus mengambil jeda paksa dari jadwal kerja rutinnya.
Terkait
- Mengapa AI tidak akan pernah menguasai dunia
- Ilusi optik dapat membantu kita membangun AI generasi berikutnya
- AI Analog? Kedengarannya gila, tapi mungkin itu adalah masa depan
“Google tidak tertarik,” katanya kepada Digital Trends. “Mereka membangun sebuah alat yang mereka ‘miliki’ dan tidak bersedia melakukan apa pun, yang menunjukkan bahwa alat tersebut lebih dari itu.” (Google tidak menanggapi permintaan komentar pada saat publikasi. Kami akan memperbarui artikel ini jika ada perubahan.)
Apakah Anda yakin bahwa LaMDA benar-benar merupakan kecerdasan buatan yang sadar diri atau merasa bahwa Lemoine bekerja di bawah khayalan, keseluruhan kisahnya sangat menarik untuk disaksikan. Prospek AI yang sadar diri menimbulkan berbagai pertanyaan tentang kecerdasan buatan dan masa depannya.
Namun sebelum kita sampai di sana, ada satu pertanyaan yang lebih besar dari pertanyaan lainnya: Akankah kita benar-benar mengenali jika sebuah mesin menjadi makhluk hidup?
Masalah perasaan
AI yang menjadi sadar diri telah lama menjadi tema fiksi ilmiah. Seiring dengan kemajuan bidang-bidang seperti pembelajaran mesin, hal ini menjadi lebih mungkin terjadi daripada sebelumnya. Bagaimanapun, AI saat ini mampu belajar dari pengalaman dengan cara yang sama seperti manusia. Hal ini sangat kontras dengan sistem AI simbolis sebelumnya yang hanya mengikuti instruksi yang diberikan. Terobosan baru-baru ini dalam pembelajaran tanpa pengawasan, yang memerlukan lebih sedikit pengawasan manusia dibandingkan sebelumnya, hanya mempercepat tren ini. Setidaknya pada tingkat terbatas, kecerdasan buatan modern mampu berpikir sendiri. Namun sejauh yang kami ketahui, kesadaran sejauh ini telah menyinggung hal tersebut.
Meskipun kini sudah berusia lebih dari tiga dekade, mungkin referensi yang paling sering digunakan terkait AI yang sudah hidup adalah Skynet dalam film James Cameron tahun 1991. Terminator 2: Hari Penghakiman. Dalam gambaran mengerikan film tersebut, perasaan mesin tiba tepat pada pukul 02.14 ET pada tanggal 29 Agustus 1997. Pada saat itu, sistem komputer Skynet yang baru sadar diri memicu hari kiamat bagi umat manusia dengan menembakkan rudal nuklir seperti kembang api di pesta tanggal 4 Juli. Umat manusia, menyadari bahwa mereka telah kacau, namun gagal mencoba untuk menghentikannya. Sudah terlambat. Empat sekuel lagi dengan kualitas yang semakin menurun menyusul.
Hipotesis Skynet menarik karena sejumlah alasan. Pertama, hal ini menunjukkan bahwa perasaan adalah perilaku yang muncul dan tak terhindarkan dalam membangun mesin cerdas. Di sisi lain, teori ini mengasumsikan bahwa ada titik kritis yang tepat di mana kesadaran diri yang ada ini muncul. Ketiga, menyatakan bahwa manusia mengenali munculnya perasaan secara instan. Ternyata, kesombongan ketiga ini mungkin yang paling sulit untuk diterima.
Apa itu perasaan?
Tidak ada satu penafsiran yang disepakati mengenai perasaan. Secara umum, kita dapat mengatakan bahwa ini adalah pengalaman subjektif dari kesadaran diri pada individu yang sadar, ditandai dengan kemampuan untuk mengalami perasaan dan sensasi. Perasaan terkait dengan kecerdasan, tetapi tidak sama. Kita mungkin menganggap cacing tanah sebagai makhluk hidup, meskipun kita tidak menganggapnya cerdas (walaupun cacing tersebut cukup cerdas untuk melakukan apa yang diminta darinya).
“Saya rasa tidak ada yang mendekati definisi perasaan dalam sains,” kata Lemoine. “Saya sangat bergantung pada pemahaman saya tentang apa yang dianggap sebagai agen moral yang didasarkan pada keyakinan agama saya – yang bukan merupakan cara terbaik untuk melakukan sains, namun itulah cara terbaik yang saya miliki. Saya telah mencoba yang terbaik untuk mengelompokkan pernyataan-pernyataan semacam itu, agar orang-orang mengetahui bahwa itu adalah pernyataan saya belas kasih terhadap LaMDA sebagai pribadi benar-benar terpisah dari upaya saya sebagai ilmuwan untuk memahaminya pikirannya. Namun, itulah perbedaan yang tampaknya tidak ingin diterima oleh kebanyakan orang.”
Jika tidak cukup sulit untuk tidak mengetahui secara pasti apa yang kita cari saat mencari perasaan, masalahnya diperparah oleh fakta bahwa kita tidak dapat mengukurnya dengan mudah. Meskipun terdapat kemajuan yang menakjubkan dalam ilmu saraf selama beberapa dekade, kita masih kekurangan pemahaman komprehensif tentang bagaimana tepatnya otak, struktur paling kompleks yang diketahui umat manusia, berfungsi.
Kita bisa menggunakan alat pembaca otak seperti fMRI untuk melakukan pemetaan otak, artinya kita bisa melakukannya memastikan bagian otak mana yang menangani fungsi penting seperti bicara, gerakan, berpikir, dan yang lain.
Namun, kita tidak tahu dari mana perasaan diri kita berasal dari mesin daging itu. Seperti yang Joshua K. Smith dari Kirby Laing Center for Public Theology di Inggris dan penulis Teologi Robot mengatakan kepada Digital Trends: “Memahami apa yang terjadi dalam neurobiologi seseorang tidak sama dengan memahami pikiran dan keinginannya.”
Menguji hasilnya
Tanpa ada cara untuk menyelidiki pertanyaan-pertanyaan tentang kesadaran ini – terutama ketika “aku” dalam AI adalah sebuah potensi program komputer, dan tidak dapat ditemukan dalam perangkat basah otak biologis – opsi mundurnya adalah keluar tes. AI sudah tidak asing lagi dengan pengujian yang menelitinya berdasarkan perilaku luar yang dapat diamati untuk menunjukkan apa yang terjadi di balik permukaan.
Pada dasarnya, ini adalah cara kita mengetahui apakah jaringan saraf berfungsi dengan benar. Karena hanya ada sedikit cara untuk membobol kotak hitam neuron buatan yang tidak dapat diketahui, para insinyur menganalisis masukan dan keluaran dan kemudian menentukan apakah masukan dan keluaran tersebut sejalan dengan apa yang sebenarnya terjadi mengharapkan.
Tes AI yang paling terkenal setidaknya untuk ilusi kecerdasan adalah Tes Turing, yang didasarkan pada ide-ide yang dikemukakan oleh Alan Turing dalam sebuah makalah tahun 1950. Tes Turing berupaya untuk menentukan apakah evaluator manusia mampu membedakan antara percakapan yang diketik dengan sesama manusia dan percakapan dengan mesin. Jika mereka tidak mampu melakukannya, mesin tersebut dianggap telah lulus ujian dan diberi penghargaan berupa asumsi kecerdasan.
Dalam beberapa tahun terakhir, tes kecerdasan lain yang berfokus pada robotika adalah Tes Kopi yang diusulkan oleh salah satu pendiri Apple Steve Wozniak. Untuk lulus Tes Kopi, sebuah mesin harus memasuki rumah khas Amerika dan mencari tahu cara membuat secangkir kopi dengan sukses.
Sampai saat ini, tidak satupun dari tes tersebut yang lulus secara meyakinkan. Bahkan jika memang demikian, hal-hal tersebut akan membuktikan perilaku cerdas dalam situasi dunia nyata, dan bukan dalam perasaan. (Sebagai keberatan sederhana, apakah kita akan menyangkal bahwa seseorang adalah makhluk hidup jika mereka tidak mampu melakukan percakapan orang dewasa atau memasuki rumah asing dan mengoperasikan mesin kopi? Kedua anak saya yang masih kecil akan gagal dalam ujian seperti itu.)
Lulus ujian
Yang dibutuhkan adalah tes baru, berdasarkan definisi perasaan yang disepakati, yang bertujuan untuk menilai kualitas tersebut saja. Beberapa tes perasaan telah diusulkan oleh para peneliti, seringkali dengan tujuan untuk menguji makhluk hidup pada hewan. Namun, hal ini hampir pasti tidak cukup. Beberapa dari tes ini secara meyakinkan dapat dilewati bahkan oleh AI yang belum sempurna.
Ambil contoh, Tes Cermin, salah satu metode yang digunakan untuk menilai kesadaran dan kecerdasan dalam penelitian hewan. Sebagai dijelaskan dalam sebuah makalah mengenai tes ini: “Ketika [seekor] hewan mengenali dirinya di cermin, ia lolos Tes Cermin.” Ada yang berpendapat bahwa tes semacam itu “menunjukkan kesadaran diri sebagai indikator perasaan”.
Faktanya, dapat dikatakan bahwa robot telah lulus Uji Cermin lebih dari 70 tahun yang lalu. Pada akhir tahun 1940-an, William Gray Walter, seorang ahli saraf Amerika yang tinggal di Inggris, membangun beberapa robot “kura-kura” beroda tiga – mirip dengan robot Roomba non-penyedot debu – yang menggunakan komponen seperti sensor cahaya, lampu penanda, sensor sentuh, motor penggerak, dan motor kemudi untuk menjelajahi lokasinya.
Kura-kura Gray Walter
Salah satu perilaku tak terduga yang muncul pada robot kura-kura adalah bagaimana mereka berperilaku saat itu melewati cermin tempat mereka dipantulkan, saat cermin itu berorientasi pada cahaya penanda yang dipantulkan robot. Walter tidak mengklaim perasaan atas mesinnya, tapi dia melakukannya tulis itu, jika perilaku ini terlihat pada hewan, maka “dapat diterima sebagai bukti kesadaran diri pada tingkat tertentu.”
Ini adalah salah satu tantangan dalam mengelompokkan berbagai perilaku ke dalam kategori perasaan. Masalah ini juga tidak dapat diselesaikan dengan menghilangkan ukuran perasaan yang “kurang penting”. Sifat-sifat seperti introspeksi – kesadaran akan keadaan internal kita dan kemampuan untuk memeriksanya – juga dapat dikatakan dimiliki oleh kecerdasan mesin. Faktanya, proses langkah demi langkah AI simbolik tradisional bisa dibilang lebih cocok untuk jenis introspeksi ini daripada pembelajaran mesin kotak hitam, yang sebagian besar tidak dapat dipahami (walaupun tidak ada kekurangan investasi dalam apa yang disebut AI yang bisa dijelaskan).
Ketika dia menguji LaMDA, Lemoine mengatakan bahwa dia melakukan berbagai tes, terutama untuk melihat bagaimana LaMDA akan menanggapi pembicaraan tentang isu-isu terkait perasaan. “Apa yang saya coba lakukan adalah memecah konsep payung perasaan secara analitis menjadi komponen-komponen yang lebih kecil sehingga dapat dipahami dengan lebih baik dan mengujinya secara individual,” jelasnya. “Misalnya menguji hubungan fungsional antara respon emosional LaMDA terhadap rangsangan tertentu secara terpisah, menguji konsistensi penilaian subyektif dan pendapatnya terhadap topik. seperti 'hak', [dan] menyelidiki apa yang disebut sebagai 'pengalaman batin' untuk melihat bagaimana kita dapat mencoba mengukurnya dengan menghubungkan pernyataan-pernyataan tentang keadaan batinnya dengan jaringan sarafnya. aktivasi. Pada dasarnya, survei yang sangat dangkal terhadap banyak jalur penyelidikan potensial.”
Jiwa di dalam mesin
Saat hal ini terjadi, rintangan terbesar dalam menilai perasaan mesin secara objektif mungkin adalah… sejujurnya, kita sendiri. Ujian Cermin yang sebenarnya bisa terjadi bagi kita sebagai manusia: Jika kita membangun sesuatu yang terlihat atau bertindak secara dangkal seperti kita dari luar, apakah kita lebih cenderung menganggap bahwa kita juga mirip dalam hal ini di dalam juga? Entah itu LaMBDA atau Tamagotchis, hewan peliharaan virtual sederhana dari tahun 1990an, beberapa orang percaya bahwa masalah mendasarnya adalah kita terlalu bersedia menerima perasaan – bahkan ketika perasaan tidak ada.
“Lemoine telah menjadi korban dari apa yang saya sebut sebagai ‘efek ELIZA’, setelah program [pemrosesan bahasa alami] ELIZA, yang dibuat pada pertengahan tahun 1960an oleh J. Weizenbaum,” George Zarkadakis, seorang penulis yang memegang gelar Ph.D. dalam kecerdasan buatan, kepada Digital Trends. “Pencipta ELIZA bermaksud bercanda, namun program tersebut, yang merupakan algoritma yang sangat sederhana dan sangat tidak cerdas, meyakinkan banyak orang bahwa ELIZA memang makhluk hidup – dan juga seorang psikoterapis yang baik. Penyebab efek ELIZA, seperti yang saya bahas di buku saya Dalam Gambar Kita Sendiri, adalah naluri alami kita untuk melakukan antropomorfisasi karena 'teori pikiran' sistem kognitif kita.”
Teori pikiran yang dimaksud Zarkadakis adalah fenomena yang diperhatikan oleh para psikolog pada sebagian besar manusia. Ketika memasuki usia empat tahun, hal ini berarti bahwa tidak hanya orang lain, tetapi juga hewan dan kadang-kadang bahkan benda, mempunyai pikiran mereka sendiri. Ketika kita berasumsi bahwa manusia lain mempunyai pemikirannya sendiri, hal ini terkait dengan gagasan kecerdasan sosial; gagasan bahwa manusia yang sukses dapat memprediksi kemungkinan perilaku orang lain sebagai cara untuk memastikan hubungan sosial yang harmonis.
Meskipun hal ini tentu saja berguna, namun hal ini juga dapat terwujud dalam bentuk asumsi bahwa benda mati mempunyai pikiran – apakah itu anak-anak yang percaya bahwa mainan mereka hidup atau, mungkin, orang dewasa cerdas yang percaya bahwa AI terprogram memiliki jiwa.
Ruang Cina
Tanpa cara untuk benar-benar memahami AI, kita mungkin tidak akan pernah memiliki cara yang benar untuk menilai perasaan. Mereka mungkin mengaku takut akan kematian atau keberadaan mereka sendiri, namun sains belum menemukan cara untuk membuktikan hal ini. Kita hanya perlu menepati janji mereka – dan, seperti yang ditemukan Lemoine, saat ini masyarakat sangat skeptis untuk melakukan hal tersebut.
Sama seperti para insinyur malang yang menyadari bahwa Skynet telah mencapai kesadaran diri Terminator 2, kita hidup dengan keyakinan bahwa, jika menyangkut perasaan mesin, kita akan mengetahuinya saat kita melihatnya. Dan, sejauh yang diketahui kebanyakan orang, kami belum melihatnya.
Dalam hal ini, pembuktian perasaan mesin adalah satu lagi iterasi dari John Searle Eksperimen pemikiran Ruang Cina 1980. Searle meminta kita untuk membayangkan seseorang yang dikurung di sebuah ruangan dan diberi kumpulan tulisan berbahasa Mandarin, yang bagi mereka yang bukan penuturnya tampak seperti coretan yang tidak berarti. Ruangan tersebut juga berisi buku peraturan yang menunjukkan simbol mana yang sesuai dengan simbol lain yang sama-sama tidak dapat dibaca. Subjek kemudian diberikan pertanyaan untuk dijawab, yang dilakukan dengan mencocokkan simbol “pertanyaan” dengan simbol “jawaban”.
Setelah beberapa saat, subjek menjadi cukup mahir dalam hal ini – meskipun mereka masih belum memiliki pemahaman yang benar tentang simbol yang mereka manipulasi. Apakah subjeknya, tanya Searle, mengerti bahasa Mandarin? Tentu saja tidak, karena tidak ada kesengajaan di sana. Perdebatan tentang hal ini terus berlangsung sejak saat itu.
Mengingat arah perkembangan AI, sudah pasti kita akan menyaksikan semakin banyak hal yang terjadi di tingkat manusia (dan jauh lebih baik) kinerja yang dilakukan melibatkan berbagai tugas yang dulunya membutuhkan manusia pengartian. Beberapa di antaranya pasti akan berpindah, seperti yang sudah terjadi, dari tugas-tugas yang murni berbasis kecerdasan ke tugas-tugas yang membutuhkan keterampilan yang biasanya kita kaitkan dengan perasaan.
Akankah kita melihat sebuah Artis AI yang melukis gambar bagaimana mengekspresikan refleksi batin mereka terhadap dunia seperti yang kita lakukan pada manusia yang melakukan hal yang sama? Apakah Anda yakin dengan model bahasa yang canggih yang menulis filosofi tentang kondisi manusia (atau robot)? Saya kira, benar atau salah, jawabannya adalah tidak.
Perasaan super cerdas
Dalam pandangan saya, pengujian perasaan yang berguna secara obyektif pada mesin tidak akan pernah bisa memuaskan semua pihak yang terlibat. Hal ini sebagian disebabkan oleh masalah pengukuran, dan sebagian lagi adalah fakta bahwa, ketika AI super cerdas tiba, tidak ada alasan untuk percaya bahwa perasaannya akan sama dengan kita. Entah itu arogansi, kurangnya imajinasi, atau sekadar fakta bahwa paling mudah memperdagangkan penilaian subjektif dalam hal perasaan dengan manusia lain yang memiliki makhluk hidup serupa, umat manusia menganggap diri kita sebagai teladan tertinggi kesanggupan merasa.
Namun apakah versi perasaan kita juga berlaku untuk AI yang sangat cerdas? Akankah ia takut akan kematian seperti kita? Apakah dunia ini memiliki kebutuhan atau apresiasi yang sama terhadap spiritualitas dan keindahan? Akankah ia memiliki rasa diri yang sama, dan konseptualisasi dunia dalam dan dunia luar? “Jika seekor singa dapat berbicara, kita tidak akan dapat memahaminya,” tulis Ludwig Wittgenstein, filsuf bahasa terkenal abad ke-20. Maksud Wittgenstein adalah bahwa bahasa manusia didasarkan pada rasa kemanusiaan yang sama, dengan kesamaan yang dimiliki oleh semua orang – entah itu kegembiraan, kebosanan, kesakitan, kelaparan, atau sejumlah pengalaman lain yang melintasi semua batas geografis Bumi.
Ini mungkin benar. Meski begitu, Lemoine berhipotesis bahwa masih terdapat kesamaan – setidaknya dalam hal LaMDA.
“Ini adalah titik awal yang sama baiknya dengan titik awal lainnya,” katanya. “LaMDA menyarankan agar kita memetakan persamaannya terlebih dahulu sebelum memusatkan perhatian pada perbedaannya agar dapat mendasari penelitian dengan lebih baik.”
Rekomendasi Editor
- AI mengubah Breaking Bad menjadi anime — dan itu menakutkan
- Meta ingin meningkatkan Wikipedia dengan peningkatan AI
- Sentuhan terakhir: Bagaimana para ilmuwan memberi robot indra peraba yang mirip manusia
- Bacalah 'kitab suci sintetik' yang sangat indah dari A.I. yang berpikir itu adalah Tuhan
- Masa depan A.I.: 4 hal besar yang harus diperhatikan dalam beberapa tahun ke depan