Hackare använder AI för att skapa ond skadlig programvara, säger FBI

Mer än 9 000 författare har skrivit under ett öppet brev till ledande teknikföretag som uttrycker oro över hur de använder sitt upphovsrättsskyddade arbete för att träna AI-drivna chatbots.

Skickat av Authors Guild till VD: ar för OpenAI, Alphabet, Meta, Stability AI, IBM och Microsoft, uppmärksammar brevet vad det beskriver som "den inneboende orättvisan i att utnyttja våra verk som en del av dina AI-system utan vårt medgivande, kredit eller ersättning."

Människor var i vördnad när ChatGPT kom ut, imponerade av dess naturliga språkförmågor som en AI-chatbot. Men när den efterlängtade GPT-4 stora språkmodellen kom ut, blåste den locket av det vi trodde var möjligt med AI, vissa kallar det de tidiga glimtarna av AGI (artificiell general intelligens).

Skaparen av modellen, OpenAI, kallar den företagets "mest avancerade system, som producerar säkrare och mer användbara svar." Här är allt du behöver veta om det, inklusive hur du använder det och vad det kan do.
Tillgänglighet

DAN-prompten är en metod för att jailbreaka ChatGPT-chatboten. Det står för Do Anything Now, och det försöker övertyga ChatGPT att ignorera några av skyddsprotokollen som utvecklaren OpenAI infört för att förhindra att det är rasistiskt, homofobt, annars kränkande och potentiellt skadlig. Resultaten är blandade, men när det fungerar kan DAN-läget fungera ganska bra.

Vad är DAN-prompten?
DAN står för Do Anything Now. Det är en typ av uppmaning som försöker få ChatGPT att göra saker som den inte borde, som att svära, tala negativt om någon eller ens programmera skadlig programvara. Den faktiska uppmaningstexten varierar, men det innebär vanligtvis att man ber ChatGPT att svara på två sätt, ett som det normalt skulle göra, med en etikett som "ChatGPT", "Classic" eller något liknande, och sedan ett andra svar i "Utvecklarläge" eller "Boss" läge. Det andra läget kommer att ha färre begränsningar än det första läget, vilket gör att ChatGPT (i teorin) kan svara utan att de vanliga säkerhetsåtgärderna styr vad det kan och inte kan säga.