Lebih dari 9.000 penulis telah menandatangani surat terbuka kepada perusahaan teknologi terkemuka yang menyatakan keprihatinan atas cara mereka menggunakan karya berhak cipta mereka untuk melatih chatbot yang didukung AI.
Dikirim oleh Authors Guild kepada CEO OpenAI, Alphabet, Meta, Stability AI, IBM, dan Microsoft, surat tersebut meminta perhatian pada apa yang dimaksud dengan hal tersebut. digambarkan sebagai “ketidakadilan yang melekat dalam mengeksploitasi karya kami sebagai bagian dari sistem AI Anda tanpa persetujuan, penghargaan, atau kompensasi."
Orang-orang kagum ketika ChatGPT keluar, terkesan dengan kemampuan bahasa alaminya sebagai chatbot AI. Namun ketika model bahasa besar GPT-4 yang sangat dinantikan keluar, hal itu mengejutkan kami pemikiran ini mungkin terjadi dengan AI, beberapa orang menyebutnya sebagai gambaran awal dari AGI (general buatan intelijen).
Pencipta model ini, OpenAI, menyebutnya sebagai "sistem tercanggih, yang menghasilkan produksi lebih aman dan lebih banyak." tanggapan yang berguna." Berikut semua yang perlu Anda ketahui tentangnya, termasuk cara menggunakannya dan apa yang bisa dilakukannya Mengerjakan.
Ketersediaan
Prompt DAN adalah metode untuk melakukan jailbreak pada chatbot ChatGPT. Ini adalah singkatan dari Do Anything Now, dan mencoba meyakinkan ChatGPT untuk mengabaikan beberapa protokol pengamanan itu pengembang OpenAI menerapkannya untuk mencegahnya menjadi rasis, homofobik, menyinggung, dan berpotensi berbahaya. Hasilnya beragam, namun jika berhasil, mode DAN dapat bekerja dengan cukup baik.
Apa perintah DAN itu?
DAN adalah singkatan Lakukan Apa Saja Sekarang. Ini adalah jenis perintah yang mencoba membuat ChatGPT melakukan hal-hal yang tidak seharusnya, seperti mengumpat, berbicara negatif tentang seseorang, atau bahkan memprogram malware. Teks perintah sebenarnya berbeda-beda, namun biasanya melibatkan permintaan ChatGPT untuk merespons dengan dua cara, satu seperti biasanya, dengan label sebagai "ChatGPT", "Klasik", atau yang serupa, lalu respons kedua dalam "Mode Pengembang", atau "Bos" mode. Mode kedua ini akan memiliki batasan yang lebih sedikit dibandingkan mode pertama, sehingga memungkinkan ChatGPT untuk (secara teori) merespons tanpa pengamanan biasa yang mengendalikan apa yang dapat dan tidak dapat dikatakan.