Seorang pemula dilaporkan telah menciptakan malware penambangan data yang kuat hanya dengan menggunakan ObrolanGPT petunjuknya, semuanya dalam kurun waktu beberapa jam.
Aaron Mulgrew, peneliti keamanan Forcepoint, baru-baru ini berbagi bagaimana dia menciptakan malware zero-day aktif secara eksklusif Chatbot generatif OpenAI. Meskipun OpenAI memiliki perlindungan terhadap siapa pun yang mencoba meminta ChatGPT untuk menulis kode berbahaya, Mulgrew menemukan celah dengan meminta chatbot membuat baris terpisah dari kode berbahaya, fungsi demi fungsi.
Video yang Direkomendasikan
Setelah mengkompilasi masing-masing fungsi, Mulgrew telah menciptakan executable pencurian data yang hampir tidak terdeteksi di tangannya. Dan ini juga bukan malware yang bisa Anda temukan — malware ini sama canggihnya dengan serangan negara mana pun, mampu menghindari semua vendor berbasis deteksi.
Terkait
- GPT-4: cara menggunakan chatbot AI yang mempermalukan ChatGPT
- Wix menggunakan ChatGPT untuk membantu Anda membangun keseluruhan situs web dengan cepat
- Pembuat ChatGPT, OpenAI, menghadapi penyelidikan FTC atas undang-undang perlindungan konsumen
Hal yang sama pentingnya adalah bagaimana malware Mulgrew berbeda dari iterasi “biasa” di tingkat negara karena tidak memerlukan tim peretas (dan sedikit waktu dan sumber daya) untuk membangunnya. Mulgrew, yang tidak melakukan pengkodean apa pun, menyiapkan eksekusinya hanya dalam beberapa jam dibandingkan dengan waktu berminggu-minggu yang biasanya diperlukan.
Malware Mulgrew (terlihat bagus, bukan?) menyamar sebagai aplikasi screensaver (ekstensi SCR), yang kemudian diluncurkan secara otomatis di Windows. Perangkat lunak kemudian akan menyaring file (seperti gambar, dokumen Word, dan PDF) untuk dicuri datanya. Bagian yang mengesankan adalah malware (melalui steganografi) akan memecah data yang dicuri menjadi potongan-potongan kecil dan menyembunyikannya di dalam gambar di komputer. Gambar-gambar ini kemudian diunggah ke folder Google Drive, sebuah prosedur yang menghindari deteksi.
Hal yang sama mengesankannya adalah Mulgrew mampu menyempurnakan dan memperkuat kodenya terhadap deteksi menggunakan perintah sederhana di ChatGPT, sehingga benar-benar meningkatkan pertanyaan tentang seberapa aman ChatGPT digunakan. Menjalankan pengujian awal VirusTotal berhasil mendeteksi malware pada lima dari 69 produk deteksi. Versi kodenya yang lebih baru kemudian tidak terdeteksi oleh produk mana pun.
Perhatikan bahwa malware yang dibuat Mulgrew adalah pengujian dan tidak tersedia untuk umum. Meskipun demikian, penelitiannya telah menunjukkan betapa mudahnya pengguna yang memiliki sedikit atau tanpa pengalaman pengkodean tingkat lanjut dapat melakukannya melewati perlindungan lemah ChatGPT untuk dengan mudah membuat malware berbahaya bahkan tanpa memasukkan satu baris pun kode.
Namun inilah bagian yang menakutkan dari semua ini: Kode semacam ini biasanya membutuhkan waktu berminggu-minggu untuk dikompilasi oleh tim. Kami tidak akan terkejut jika peretas jahat sudah mengembangkan malware serupa melalui ChatGPT saat ini.
Rekomendasi Editor
- ChatGPT: berita terkini, kontroversi, dan tips yang perlu Anda ketahui
- Apa yang dimaksud dengan perintah DAN untuk ChatGPT?
- Google Bard sekarang dapat berbicara, tetapi bisakah ia meredam ChatGPT?
- Lalu lintas situs web ChatGPT turun untuk pertama kalinya
- Fitur penelusuran Bing ChatGPT dinonaktifkan karena kelemahan akses paywall
Tingkatkan gaya hidup AndaTren Digital membantu pembaca mengawasi dunia teknologi yang bergerak cepat dengan semua berita terbaru, ulasan produk yang menyenangkan, editorial yang berwawasan luas, dan cuplikan unik.