Secondo quanto riferito, un principiante autoproclamato ha creato un potente malware di data mining utilizzando just ChatGPT istruzioni, il tutto nell'arco di poche ore.
Aaron Mulgrew, un ricercatore di sicurezza Forcepoint, di recente ha condiviso come ha creato malware zero-day esclusivamente su Il chatbot generativo di OpenAI. Sebbene OpenAI disponga di protezioni contro chiunque tenti di chiedere a ChatGPT di scrivere codice dannoso, Mulgrew trovato una scappatoia richiedendo al chatbot di creare righe separate del codice dannoso, funzione per funzione.
Video consigliati
Dopo aver compilato le singole funzioni, Mulgrew si era creato tra le mani un file eseguibile quasi impercettibile per il furto di dati. E non si trattava nemmeno di un malware qualunque: il malware era sofisticato quanto qualsiasi attacco a livello nazionale, in grado di eludere tutti i fornitori basati sul rilevamento.
Imparentato
- GPT-4: come utilizzare il chatbot AI che fa vergognare ChatGPT
- Wix utilizza ChatGPT per aiutarti a creare rapidamente un intero sito web
- OpenAI, produttore di ChatGPT, affronta l'indagine della FTC sulle leggi sulla protezione dei consumatori
Altrettanto importante è il modo in cui il malware di Mulgrew si differenzia dalle iterazioni “regolari” degli stati-nazione in quanto non richiede team di hacker (e una frazione del tempo e delle risorse) per essere creato. Mulgrew, che non ha eseguito personalmente alcuna codifica, ha avuto l'eseguibile pronto in poche ore invece delle settimane normalmente necessarie.
Il malware Mulgrew (ha un bell'aspetto, vero?) si maschera da app salvaschermo (estensione SCR), che poi si avvia automaticamente su Windows. Il software passerà quindi al setaccio i file (come immagini, documenti Word e PDF) alla ricerca di dati da rubare. La parte impressionante è che il malware (attraverso la steganografia) scompone i dati rubati in pezzi più piccoli e li nasconde all'interno delle immagini sul computer. Queste immagini vengono poi caricate in una cartella di Google Drive, una procedura che evita il rilevamento.
Altrettanto impressionante è che Mulgrew sia riuscito a perfezionare e rafforzare il suo codice contro il rilevamento utilizzando semplici istruzioni su ChatGPT, aumentando davvero la questione di quanto sia sicuro l'utilizzo di ChatGPT. Eseguendo i primi test di VirusTotal, il malware è stato rilevato da cinque dei 69 prodotti di rilevamento. Una versione successiva del suo codice non è stata successivamente rilevata da nessuno dei prodotti.
Tieni presente che il malware creato da Mulgrew era un test e non è disponibile pubblicamente. Ciononostante, la sua ricerca ha dimostrato con quanta facilità possono farlo gli utenti con poca o nessuna esperienza di codifica avanzata aggirare le deboli protezioni di ChatGPT per creare facilmente malware pericolosi senza nemmeno inserire una sola riga di codice.
Ma ecco la parte spaventosa di tutto questo: questo tipo di codice di solito richiede settimane per essere compilato da un team più numeroso. Non saremmo sorpresi se hacker malvagi stessero già sviluppando malware simili tramite ChatGPT mentre parliamo.
Raccomandazioni degli editori
- ChatGPT: le ultime novità, controversie e consigli che devi sapere
- Cos'è un prompt DAN per ChatGPT?
- Google Bard ora può parlare, ma può soffocare ChatGPT?
- Il traffico del sito web ChatGPT è diminuito per la prima volta
- La funzionalità di navigazione Bing di ChatGPT è stata disabilitata a causa di un difetto di accesso al paywall
Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.