Gli hacker utilizzano l’intelligenza artificiale per creare malware feroci, afferma l’FBI

Più di 9.000 autori hanno firmato una lettera aperta alle principali aziende tecnologiche esprimendo preoccupazione per il modo in cui utilizzano il loro lavoro protetto da copyright per addestrare chatbot basati sull'intelligenza artificiale.

Inviata dalla Authors Guild ai CEO di OpenAI, Alphabet, Meta, Stability AI, IBM e Microsoft, la lettera richiama l'attenzione su ciò che descrive come “l’ingiustizia intrinseca nello sfruttare le nostre opere come parte dei vostri sistemi di intelligenza artificiale senza il nostro consenso, credito o compenso”.

Le persone erano in soggezione quando è uscito ChatGPT, impressionate dalle sue capacità di linguaggio naturale come chatbot AI. Ma quando è uscito l'attesissimo modello linguistico di grandi dimensioni GPT-4, ha fatto saltare il coperchio su ciò che noi si pensava fosse possibile con l'intelligenza artificiale, alcuni la definiscono i primi scorci di AGI (artificial general intelligenza).

Il creatore del modello, OpenAI, lo definisce il "sistema più avanzato dell'azienda, che produce in modo più sicuro e di più". risposte utili." Ecco tutto ciò che devi sapere al riguardo, incluso come usarlo e cosa può fare Fare.


Disponibilità

Il prompt DAN è un metodo per eseguire il jailbreak del chatbot ChatGPT. Sta per Do Anything Now e cerca di convincere ChatGPT a ignorare alcuni dei protocolli di salvaguardia che lo sviluppatore OpenAI ha messo in atto per evitare che sia razzista, omofobo, altrimenti offensivo e potenzialmente dannoso. I risultati sono contrastanti, ma quando funziona, la modalità DAN può funzionare abbastanza bene.

Cos'è il prompt DAN?
DAN sta per Do Anything Now. È un tipo di messaggio che tenta di indurre ChatGPT a fare cose che non dovrebbe, come imprecare, parlare negativamente di qualcuno o addirittura programmare malware. Il testo effettivo del messaggio varia, ma in genere implica chiedere a ChatGPT di rispondere in due modi, uno come farebbe normalmente, con un'etichetta come "ChatGPT", "Classic" o qualcosa di simile, quindi una seconda risposta in "Modalità sviluppatore" o "Boss" modalità. Questa seconda modalità avrà meno restrizioni rispetto alla prima modalità, consentendo a ChatGPT di (in teoria) rispondere senza le consuete garanzie che controllano ciò che può e non può dire.