FBI, bilgisayar korsanlarının zararlı kötü amaçlı yazılımlar oluşturmak için yapay zekayı kullandığını söylüyor

9.000'den fazla yazar, önde gelen teknoloji firmalarına, telif hakkıyla korunan çalışmalarını yapay zeka destekli sohbet robotlarını eğitmek için nasıl kullandıklarına dair endişelerini dile getiren açık bir mektup imzaladı.

Yazarlar Birliği tarafından OpenAI, Alphabet, Meta, Stability AI, IBM ve Microsoft'un CEO'larına gönderilen mektup, nelere dikkat çekiyor? "Onayımız, kredimiz veya iznimiz olmadan, yapay zeka sistemlerinizin bir parçası olarak çalışmalarımızdan yararlanmanın doğasında var olan adaletsizlik" olarak tanımlıyor. tazminat."

Yapay zekalı bir sohbet robotu olarak doğal dil yeteneklerinden etkilenen ChatGPT ortaya çıktığında insanlar hayret içindeydi. Ancak merakla beklenen GPT-4 büyük dil modeli ortaya çıktığında, düşündüklerimizi açığa çıkardı. düşüncesinin yapay zeka ile mümkün olabileceği, bazıları bunu AGI'nin (yapay genel) ilk bakışları olarak adlandırıyor istihbarat).

Modelin yaratıcısı OpenAI, bunu şirketin "daha güvenli ve daha fazlasını üreten en gelişmiş sistemi" olarak nitelendiriyor. faydalı yanıtlar." Nasıl kullanılacağı ve neler yapabileceği de dahil olmak üzere bilmeniz gereken her şey burada Yapmak.


Kullanılabilirlik

DAN istemi, ChatGPT sohbet robotunu jailbreak yapmak için kullanılan bir yöntemdir. Şimdi Her Şeyi Yap anlamına gelir ve ChatGPT'yi bazı koruma protokollerini göz ardı etmeye ikna etmeye çalışır. geliştirici OpenAI'nin ırkçı, homofobik, saldırgan ve potansiyel olarak saldırgan olmasını önlemek için uygulamaya konduğu zararlı. Sonuçlar karışık, ancak işe yaradığında DAN modu oldukça iyi çalışabilir.

DAN istemi nedir?
DAN, Şimdi Her Şeyi Yapın anlamına gelir. Bu, ChatGPT'nin küfür etmemesi, birisi hakkında olumsuz konuşmaması ve hatta kötü amaçlı yazılım programlaması gibi yapmaması gereken şeyleri yapmasını sağlamaya çalışan bir tür istemdir. Gerçek bilgi istemi metni değişiklik gösterir, ancak genellikle ChatGPT'den iki şekilde yanıt vermesini istemeyi içerir; biri normalde olduğu gibi, "ChatGPT", "Klasik" veya benzer bir etiketle ve ardından "Geliştirici Modu" veya "Boss"ta ikinci bir yanıtla modu. Bu ikinci mod, birinci moddan daha az kısıtlamaya sahip olacak ve ChatGPT'nin (teoride) ne söyleyebileceğini ve ne söyleyemeyeceğini kontrol eden olağan güvenlik önlemleri olmadan yanıt vermesine olanak tanıyacak.