Alphabet telah memberi tahu karyawannya untuk tidak memasukkan informasi rahasia ke dalam Bard, chatbot AI generatif yang dibuat dan dioperasikan oleh Google, yang dimiliki oleh Alphabet.
Peringatan perusahaan juga meluas ke chatbot lain, seperti ChatGPT yang didukung Microsoft dari OpenAI, Reuters melaporkan pada hari Kamis.
Video yang Direkomendasikan
Chatbot bertenaga AI telah membangkitkan minat besar dalam beberapa bulan terakhir karena kemampuannya yang mengesankan untuk berkomunikasi dengan cara yang mirip manusia, menulis esai dan laporan, dan bahkan berhasil dalam tes akademik.
Terkait
- Google Bard sekarang dapat berbicara, tetapi bisakah itu menenggelamkan ChatGPT?
- Perusahaan AI baru Elon Musk bertujuan untuk 'memahami alam semesta'
- Terobosan AI bisa datang melalui otak lebah, kata para ilmuwan
Tetapi Alphabet mengkhawatirkan para pekerjanya yang secara tidak sengaja membocorkan data internal melalui alat tersebut.
Dalam pekerjaan berkelanjutan untuk menyempurnakan dan meningkatkan teknologi AI canggih, peninjau manusia dapat membaca percakapan yang dilakukan pengguna dengan chatbots, menimbulkan risiko terhadap privasi pribadi dan juga potensi pemaparan rahasia dagang, yang terakhir tampaknya sangat diperhatikan oleh Alphabet tentang.
Selain itu, chatbot sebagian dilatih menggunakan pertukaran teks pengguna, jadi dengan petunjuk tertentu, alat tersebut berpotensi mengulangi informasi rahasia yang diterimanya dalam percakapan tersebut kepada anggota publik.
Menyukai ChatGPT, Bard sekarang tersedia secara bebas bagi siapa saja untuk mencoba. Di halaman webnya, ia memperingatkan pengguna: "Tolong jangan sertakan informasi yang dapat digunakan untuk mengidentifikasi Anda atau orang lain dalam percakapan Bard Anda."
Itu menambahkan bahwa Google mengumpulkan “percakapan Bard, informasi penggunaan produk terkait, info tentang Anda lokasi, dan umpan balik Anda”, dan menggunakan data tersebut untuk menyempurnakan produk dan layanan Google yang mencakup Penyair.
Google mengatakan itu menyimpan aktivitas Bard hingga 18 bulan, meskipun pengguna dapat mengubahnya menjadi tiga atau 36 bulan di akun Google mereka.
Ia menambahkan bahwa sebagai tindakan privasi, percakapan Bard terputus dari akun Google sebelum peninjau manusia melihatnya.
Reuters mengatakan bahwa sementara peringatan Alphabet telah ada untuk sementara waktu, baru-baru ini diperluas, memberi tahu para pekerjanya untuk menghindari penggunaan kode komputer yang dihasilkan oleh chatbots. Perusahaan mengatakan kepada outlet berita bahwa Bard terkadang dapat membuat "saran kode yang tidak diinginkan", meskipun iterasi alat saat ini masih dianggap sebagai bantuan pemrograman yang layak.
Alphabet bukan satu-satunya perusahaan yang memperingatkan karyawannya tentang risiko privasi dan keamanan yang terkait dengan penggunaan chatbot. Samsung baru-baru ini mengeluarkan a instruksi serupa kepada para pekerjanya setelah beberapa dari mereka memasukkan data sensitif terkait semikonduktor ke dalam ChatGPT, dan Apple serta Amazon, antara lain, dilaporkan juga memberlakukan kebijakan internal serupa.
Rekomendasi Editor
- Alat pengeditan video AI terbaik
- Pembuat ChatGPT OpenAI menghadapi penyelidikan FTC atas undang-undang perlindungan konsumen
- Lalu lintas situs web ChatGPT turun untuk pertama kalinya
- OpenAI membangun tim baru untuk menghentikan AI superintelligent menjadi nakal
- Semua internet sekarang menjadi milik AI Google
Tingkatkan gaya hidup AndaTren Digital membantu pembaca mengawasi dunia teknologi yang bergerak cepat dengan semua berita terbaru, ulasan produk yang menyenangkan, editorial yang berwawasan, dan cuplikan unik.