ChatGPT opprettet nettopp skadelig programvare, og det er seriøst skummelt

En selverklært nybegynner har angivelig skapt en kraftig data-mining malware ved å bruke bare ChatGPT meldinger, alt i løpet av noen få timer.

Aaron Mulgrew, en Forcepoint-sikkerhetsforsker, nylig delte hvordan han skapte zero-day malware utelukkende på OpenAIs generative chatbot. Mens OpenAI har beskyttelse mot alle som forsøker å be ChatGPT om å skrive ondsinnet kode, Mulgrew fant et smutthull ved å be chatboten om å lage separate linjer med den skadelige koden, funksjon for funksjon.

Anbefalte videoer

Etter å ha kompilert de individuelle funksjonene, hadde Mulgrew laget en tilnærmet uoppdagelig kjørbar datastjeling på hendene. Og dette var ikke din hagevariant malware heller - skadelig programvare var like sofistikert som alle nasjonalstatsangrep, i stand til å unngå alle gjenkjenningsbaserte leverandører.

I slekt

  • GPT-4: hvordan bruke AI-chatboten som gjør ChatGPT til skamme
  • Wix bruker ChatGPT for å hjelpe deg raskt å bygge et helt nettsted
  • ChatGPT-produsenten OpenAI står overfor FTC-undersøkelse over forbrukerbeskyttelseslover

Like viktig er det hvordan Mulgrews skadevare avviker fra «vanlige» nasjonalstater ved at det ikke krever team av hackere (og en brøkdel av tiden og ressursene) å bygge. Mulgrew, som ikke gjorde noe av kodingen selv, hadde den kjørbare filen klar på bare timer i motsetning til ukene som vanligvis trengs.

Mulgrew-malwaren (den har en fin klang, gjør det ikke?) forkle seg som en skjermsparer-app (SCR-utvidelse), som deretter automatisk starter på Windows. Programvaren vil deretter sile gjennom filer (som bilder, Word-dokumenter og PDF-er) for data å stjele. Den imponerende delen er at skadevare (gjennom steganografi) vil bryte ned de stjålne dataene i mindre biter og skjule dem i bilder på datamaskinen. Disse bildene blir deretter lastet opp til en Google Disk-mappe, en prosedyre som unngår gjenkjenning.

Like imponerende er at Mulgrew var i stand til å avgrense og styrke koden sin mot deteksjon ved å bruke enkle meldinger på ChatGPT, noe som virkelig hevet spørsmål om hvor trygt ChatGPT er å bruke. Ved å kjøre tidlige VirusTotal-tester ble skadelig programvare oppdaget av fem av 69 gjenkjenningsprodukter. En senere versjon av koden hans ble senere oppdaget av ingen av produktene.

Merk at malware Mulgrew opprettet var en test og ikke er offentlig tilgjengelig. Ikke desto mindre har forskningen hans vist hvor enkelt brukere med liten eller ingen avansert kodingserfaring kan omgå ChatGPTs svake beskyttelser for enkelt å lage farlig skadelig programvare uten engang å gå inn på en eneste linje med kode.

Men her er den skumle delen av alt dette: Denne typen kode tar vanligvis et større teamuker å kompilere. Vi ville ikke bli overrasket om ondsinnede hackere allerede utvikler lignende skadelig programvare gjennom ChatGPT mens vi snakker.

Redaktørenes anbefalinger

  • ChatGPT: de siste nyhetene, kontroversene og tipsene du trenger å vite
  • Hva er en DAN-forespørsel for ChatGPT?
  • Google Bard kan nå snakke, men kan det overdøve ChatGPT?
  • ChatGPT-nettstedstrafikken har falt for første gang
  • ChatGPTs Bing-surfingsfunksjon er deaktivert på grunn av tilgangsfeil i betalingsmuren

Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.