Een zelfbenoemde beginneling heeft naar verluidt een krachtige datamining-malware gemaakt met behulp van just ChatGPT prompts, allemaal binnen een tijdsbestek van een paar uur.
Aaron Mulgrew, een Forcepoint-beveiligingsonderzoeker, onlangs deelde hoe hij creëerde zero-day-malware exclusief op De generatieve chatbot van OpenAI. Hoewel OpenAI bescherming biedt tegen iedereen die ChatGPT probeert te vragen kwaadaardige code te schrijven, kan Mulgrew een maas in de wet gevonden door de chatbot te vragen afzonderlijke regels van de kwaadaardige code te maken, functie voor functie.
Aanbevolen video's
Na het compileren van de afzonderlijke functies had Mulgrew een vrijwel niet-detecteerbaar uitvoerbaar bestand voor het stelen van gegevens gemaakt. En dit was ook niet jouw tuinvariant-malware: de malware was net zo geavanceerd als alle nationale aanvallen en kon alle op detectie gebaseerde leveranciers omzeilen.
Verwant
- GPT-4: hoe je de AI-chatbot gebruikt die ChatGPT te schande maakt
- Wix gebruikt ChatGPT om u te helpen snel een hele website te bouwen
- ChatGPT-maker OpenAI wordt geconfronteerd met een FTC-onderzoek naar wetten inzake consumentenbescherming
Net zo cruciaal is de manier waarop de malware van Mulgrew zich onderscheidt van ‘reguliere’ natiestatelijke iteraties, omdat er geen teams van hackers voor nodig zijn (en een fractie van de tijd en middelen) om te bouwen. Mulgrew, die zelf niets aan het coderen deed, had het uitvoerbare bestand binnen enkele uren gereed, in tegenstelling tot de weken die normaal gesproken nodig waren.
De Mulgrew-malware (het klinkt leuk, nietwaar?) vermomt zichzelf als een screensaver-app (SCR-extensie), die vervolgens automatisch wordt gestart op Windows. De software doorzoekt vervolgens bestanden (zoals afbeeldingen, Word-documenten en pdf's) om gegevens te stelen. Het indrukwekkende is dat de malware (via steganografie) de gestolen gegevens in kleinere stukjes zal opsplitsen en deze in afbeeldingen op de computer zal verbergen. Deze afbeeldingen worden vervolgens geüpload naar een Google Drive-map, een procedure die detectie voorkomt.
Even indrukwekkend is dat Mulgrew zijn code tegen detectie kon verfijnen en versterken met behulp van eenvoudige aanwijzingen op ChatGPT, waardoor de vraag hoe veilig ChatGPT is om te gebruiken. Bij het uitvoeren van vroege VirusTotal-tests werd de malware gedetecteerd door vijf van de 69 detectieproducten. Een latere versie van zijn code werd vervolgens door geen van de producten gedetecteerd.
Houd er rekening mee dat de malware die Mulgrew heeft gemaakt een test was en niet openbaar beschikbaar is. Niettemin heeft zijn onderzoek aangetoond hoe gemakkelijk gebruikers met weinig tot geen geavanceerde codeerervaring dit kunnen omzeil de zwakke beveiligingen van ChatGPT om eenvoudig gevaarlijke malware te creëren zonder zelfs maar een enkele regel in te voeren code.
Maar hier is het enge deel van dit alles: het compileren van dit soort code duurt meestal een groter teamweken. Het zou ons niet verbazen als snode hackers op dit moment al soortgelijke malware ontwikkelen via ChatGPT.
Aanbevelingen van de redactie
- ChatGPT: het laatste nieuws, controverses en tips die u moet weten
- Wat is een DAN-prompt voor ChatGPT?
- Google Bard kan nu spreken, maar kan het ChatGPT overstemmen?
- Het websiteverkeer van ChatGPT is voor het eerst gedaald
- De Bing-browsingfunctie van ChatGPT is uitgeschakeld vanwege een toegangsfout in de betaalmuur
Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.