ChatGPT skapade precis skadlig programvara, och det är verkligen skrämmande

En självbekänd nybörjare har enligt uppgift skapat en kraftfull skadlig programvara för datautvinning med bara ChatGPT uppmaningar, allt inom loppet av några timmar.

Aaron Mulgrew, en Forcepoint-säkerhetsforskare, nyligen delade hur han skapade Zero-day malware uteslutande på OpenAI: s generativa chatbot. Medan OpenAI har skydd mot alla som försöker be ChatGPT att skriva skadlig kod, Mulgrew hittade ett kryphål genom att uppmana chatboten att skapa separata rader av den skadliga koden, funktion för funktion.

Rekommenderade videor

Efter att ha sammanställt de individuella funktionerna hade Mulgrew skapat en nästintill oupptäckbar körbar datastöld på sina händer. Och det här var inte din trädgårdsskadlig programvara heller - skadlig programvara var lika sofistikerad som alla nationalstatsattacker, kunde undvika alla upptäcktsbaserade leverantörer.

Relaterad

  • GPT-4: hur man använder AI-chatboten som gör ChatGPT på skam
  • Wix använder ChatGPT för att hjälpa dig att snabbt bygga en hel webbplats
  • ChatGPT-tillverkaren OpenAI står inför FTC-utredning över konsumentskyddslagar

Lika avgörande, hur Mulgrews skadliga program avviker från "vanliga" nationalstatsupprepningar genom att det inte kräver team av hackare (och en bråkdel av tiden och resurserna) för att bygga. Mulgrew, som inte gjorde något av kodningen själv, hade den körbara filen klar på bara timmar i motsats till de veckor som vanligtvis behövs.

Mulgrew-skadlig programvara (den har en fin klang, eller hur?) förklädd sig som en skärmsläckarapp (SCR-tillägg), som sedan automatiskt startar på Windows. Programvaran kommer sedan att sikta igenom filer (som bilder, Word-dokument och PDF-filer) för data att stjäla. Den imponerande delen är att skadlig programvara (genom steganografi) kommer att bryta ner stulna data i mindre bitar och gömma dem i bilder på datorn. Dessa bilder laddas sedan upp till en Google Drive-mapp, en procedur som undviker upptäckt.

Lika imponerande är att Mulgrew kunde förfina och stärka sin kod mot upptäckt med enkla uppmaningar på ChatGPT, vilket verkligen höjde frågan om hur säkert ChatGPT är att använda. Genom att köra tidiga VirusTotal-tester upptäcktes skadlig programvara av fem av 69 upptäcktsprodukter. En senare version av hans kod upptäcktes senare av ingen av produkterna.

Observera att skadlig programvara som Mulgrew skapade var ett test och inte är allmänt tillgänglig. Icke desto mindre har hans forskning visat hur lätt användare med liten eller ingen avancerad kodningsupplevelse kan kringgå ChatGPT: s svaga skydd för att enkelt skapa farlig skadlig programvara utan att ens gå in i en enda rad koda.

Men här är den skrämmande delen av allt detta: Den här typen av kod tar vanligtvis ett större teamveckor att kompilera. Vi skulle inte bli förvånade om ondskefulla hackare redan utvecklar liknande skadlig programvara genom ChatGPT när vi pratar.

Redaktörens rekommendationer

  • ChatGPT: de senaste nyheterna, kontroverserna och tipsen du behöver veta
  • Vad är en DAN-prompt för ChatGPT?
  • Google Bard kan nu tala, men kan det överrösta ChatGPT?
  • ChatGPTs webbplatstrafik har minskat för första gången
  • ChatGPT: s Bing-surffunktion inaktiverad på grund av betalväggsåtkomstfel

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.