ChatGPT har lige oprettet malware, og det er seriøst skræmmende

En selverklæret novice har angiveligt skabt en kraftfuld data-mining malware ved hjælp af bare ChatGPT prompter, alt sammen inden for et par timer.

Aaron Mulgrew, en Forcepoint-sikkerhedsforsker, for nylig delte, hvordan han skabte zero-day malware udelukkende på OpenAIs generative chatbot. Mens OpenAI har beskyttelse mod enhver, der forsøger at bede ChatGPT om at skrive ondsindet kode, Mulgrew fundet et smuthul ved at bede chatbotten om at oprette separate linjer af den ondsindede kode, funktion for funktion.

Anbefalede videoer

Efter at have kompileret de individuelle funktioner havde Mulgrew skabt en næsten uopdagelig eksekverbar data-stjæling på sine hænder. Og dette var heller ikke din havevariant-malware - malwaren var lige så sofistikeret som ethvert nationalstatsangreb, i stand til at unddrage sig alle detektionsbaserede leverandører.

Relaterede

  • GPT-4: hvordan man bruger AI chatbot, der gør ChatGPT til skamme
  • Wix bruger ChatGPT til at hjælpe dig med hurtigt at bygge et helt websted
  • ChatGPT-producenten OpenAI står over for FTC-undersøgelse over forbrugerbeskyttelseslove

Lige så afgørende er det, hvordan Mulgrews malware afviger fra "almindelige" nationalstatsiterationer, idet det ikke kræver teams af hackere (og en brøkdel af tiden og ressourcerne) at bygge. Mulgrew, der ikke selv lavede noget af kodningen, havde den eksekverbare fil klar på få timer i modsætning til de uger, der normalt var nødvendige.

Mulgrew-malwaren (den har en god klang, gør det ikke?) forklæder sig som en pauseskærmsapp (SCR-udvidelse), som derefter automatisk lanceres på Windows. Softwaren vil derefter si gennem filer (såsom billeder, Word-dokumenter og PDF-filer) for data at stjæle. Den imponerende del er, at malware (gennem steganografi) vil nedbryde de stjålne data i mindre stykker og skjule dem i billeder på computeren. Disse billeder uploades derefter til en Google Drev-mappe, en procedure, der undgår registrering.

Lige så imponerende er det, at Mulgrew var i stand til at forfine og styrke sin kode mod detektion ved hjælp af simple prompts på ChatGPT, hvilket virkelig hævede spørgsmålet om, hvor sikkert ChatGPT er at bruge. Ved at køre tidlige VirusTotal-tests blev malware opdaget af fem ud af 69 detektionsprodukter. En senere version af hans kode blev efterfølgende opdaget af ingen af ​​produkterne.

Bemærk, at den malware, som Mulgrew oprettede, var en test og ikke er offentligt tilgængelig. Ikke desto mindre har hans forskning vist, hvor let brugere med ringe eller ingen avanceret kodningsoplevelse kan omgå ChatGPTs svage beskyttelser for nemt at skabe farlig malware uden selv at gå ind i en enkelt linje af kode.

Men her er den skræmmende del af alt dette: Disse former for kode tager normalt et større team-uger at kompilere. Vi ville ikke blive overrasket, hvis ondsindede hackere allerede udvikler lignende malware gennem ChatGPT, mens vi taler.

Redaktørernes anbefalinger

  • ChatGPT: de seneste nyheder, kontroverser og tips, du har brug for at vide
  • Hvad er en DAN-prompt til ChatGPT?
  • Google Bard kan nu tale, men kan den overdøve ChatGPT?
  • ChatGPT-webstedets trafik er faldet for første gang
  • ChatGPTs Bing-browsing-funktion deaktiveret på grund af adgangsfejl i betalingsvæggen

Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.