Se pare că un începător autoproclamat a creat un puternic malware de extragere a datelor folosind doar ChatGPT solicitări, toate într-un interval de câteva ore.
Aaron Mulgrew, un cercetător de securitate Forcepoint, recent a împărtășit cum a creat malware zero-day exclusiv activat Chatbot-ul generativ al OpenAI. În timp ce OpenAI are protecție împotriva oricui încearcă să solicite ChatGPT să scrie cod rău intenționat, Mulgrew a găsit o portiță solicitând chatbot-ului să creeze linii separate ale codului rău intenționat, funcție după funcție.
Videoclipuri recomandate
După compilarea funcțiilor individuale, Mulgrew a creat pe mâinile sale un executabil de furt de date aproape nedetectabil. Și nici acesta nu a fost malware-ul tău de grădină – malware-ul era la fel de sofisticat ca orice atac de stat național, capabil să se sustragă tuturor furnizorilor bazați pe detectare.
Legate de
- GPT-4: cum să folosești chatbot-ul AI care face ChatGPT de rușine
- Wix folosește ChatGPT pentru a vă ajuta să construiți rapid un întreg site
- Creatorul de ChatGPT OpenAI se confruntă cu o anchetă FTC cu privire la legile privind protecția consumatorilor
La fel de esențial, modul în care malware-ul lui Mulgrew se abate de la iterațiile „obișnuite” ale statelor naționale, deoarece nu necesită echipe de hackeri (și o fracțiune din timp și resurse) pentru a construi. Mulgrew, care nu a făcut el însuși nimic din codificare, a avut executabilul gata în doar câteva ore, spre deosebire de săptămânile necesare de obicei.
Malware-ul Mulgrew (are un sunet frumos, nu-i așa?) se deghizează ca o aplicație de economizor de ecran (extensie SCR), care apoi se lansează automat pe Windows. Software-ul va verifica apoi fișierele (cum ar fi imagini, documente Word și PDF) pentru a le fura date. Partea impresionantă este că malware-ul (prin steganografie) va descompune datele furate în bucăți mai mici și le va ascunde în imaginile de pe computer. Aceste imagini sunt apoi încărcate într-un folder Google Drive, procedură care evită detectarea.
La fel de impresionant este faptul că Mulgrew a reușit să-și rafineze și să-și consolideze codul împotriva detectării utilizând prompturi simple pe ChatGPT, ridicând cu adevărat întrebarea cât de sigur este de utilizat ChatGPT. Executarea timpurie a testelor VirusTotal a determinat malware-ul detectat de cinci din 69 de produse de detectare. O versiune ulterioară a codului său nu a fost detectată ulterior de niciunul dintre produse.
Rețineți că programul malware creat de Mulgrew a fost un test și nu este disponibil public. Cu toate acestea, cercetările sale au arătat cât de ușor pot utilizatorii cu puțină sau deloc experiență avansată de codare ocoliți protecțiile slabe ale ChatGPT pentru a crea cu ușurință malware periculoase, fără a intra măcar într-o singură linie de cod.
Dar iată partea înfricoșătoare a tuturor acestor lucruri: compilarea acestor tipuri de cod necesită, de obicei, săptămâni mai mari de echipă. Nu am fi surprinși dacă hackerii nefericiți dezvoltă deja programe malware similare prin ChatGPT în timp ce vorbim.
Recomandările editorilor
- ChatGPT: cele mai recente știri, controverse și sfaturi pe care trebuie să le cunoașteți
- Ce este un prompt DAN pentru ChatGPT?
- Google Bard poate vorbi acum, dar poate îneca ChatGPT?
- Traficul site-ului ChatGPT a scăzut pentru prima dată
- Funcția de navigare Bing de la ChatGPT a fost dezactivată din cauza unui defect de acces la paywall
Îmbunătățește-ți stilul de viațăDigital Trends îi ajută pe cititori să țină cont de lumea rapidă a tehnologiei cu toate cele mai recente știri, recenzii distractive despre produse, editoriale perspicace și anticipări unice.