Berichten zufolge hat ein bekennender Neuling mit Just eine leistungsstarke Data-Mining-Malware erstellt ChatGPT Eingabeaufforderungen, alles innerhalb weniger Stunden.
Aaron Mulgrew, ein Forcepoint-Sicherheitsforscher, kürzlich erzählte, wie er geschaffen hat Zero-Day-Malware ausschließlich auf Der generative Chatbot von OpenAI. Während OpenAI Schutzmaßnahmen gegen jeden bietet, der versucht, ChatGPT aufzufordern, bösartigen Code zu schreiben, sagt Mulgrew habe eine Lücke gefunden indem der Chatbot aufgefordert wird, Funktion für Funktion separate Zeilen des Schadcodes zu erstellen.
Empfohlene Videos
Nachdem er die einzelnen Funktionen zusammengestellt hatte, hatte Mulgrew eine nahezu unentdeckbare ausführbare Datei zum Datendiebstahl erstellt. Und dabei handelte es sich auch nicht um Malware vom Allerheiligsten – die Malware war so ausgeklügelt wie alle bundesstaatlichen Angriffe und in der Lage, allen erkennungsbasierten Anbietern zu entgehen.
Verwandt
- GPT-4: So verwenden Sie den KI-Chatbot, der ChatGPT in den Schatten stellt
- Wix verwendet ChatGPT, um Ihnen beim schnellen Aufbau einer gesamten Website zu helfen
- Der ChatGPT-Hersteller OpenAI steht vor einer FTC-Untersuchung wegen Verbraucherschutzgesetzen
Ebenso entscheidend ist, wie sich Mulgrews Malware von „normalen“ nationalstaatlichen Iterationen dadurch unterscheidet, dass für den Aufbau keine Hackerteams (und ein Bruchteil der Zeit und Ressourcen) erforderlich sind. Mulgrew, der nicht selbst programmierte, hatte die ausführbare Datei in nur wenigen Stunden fertig, im Gegensatz zu den Wochen, die normalerweise nötig wären.
Die Mulgrew-Malware (sie hat doch einen netten Klang, nicht wahr?) tarnt sich als Bildschirmschoner-App (SCR-Erweiterung), die dann automatisch unter Windows gestartet wird. Die Software durchsucht dann Dateien (z. B. Bilder, Word-Dokumente und PDFs) nach zu stehlenden Daten. Das Beeindruckende daran ist, dass die Malware (durch Steganographie) die gestohlenen Daten in kleinere Teile zerlegt und sie in Bildern auf dem Computer versteckt. Diese Bilder werden dann in einen Google Drive-Ordner hochgeladen, ein Verfahren, das eine Erkennung vermeidet.
Ebenso beeindruckend ist, dass Mulgrew in der Lage war, seinen Code mithilfe einfacher Eingabeaufforderungen auf ChatGPT zu verfeinern und gegen Erkennung zu schützen, was die Wahrscheinlichkeit deutlich steigerte Frage, wie sicher die Verwendung von ChatGPT ist. Bei den ersten VirusTotal-Tests wurde die Malware von fünf von 69 Erkennungsprodukten erkannt. Eine spätere Version seines Codes wurde anschließend von keinem der Produkte erkannt.
Beachten Sie, dass es sich bei der von Mulgrew erstellten Malware um einen Test handelte und nicht öffentlich verfügbar ist. Dennoch hat seine Forschung gezeigt, wie einfach Benutzer mit wenig oder keiner fortgeschrittenen Programmiererfahrung dies tun können Umgehen Sie die schwachen Schutzmaßnahmen von ChatGPT, um auf einfache Weise gefährliche Malware zu erstellen, ohne auch nur eine einzige Zeile einzugeben Code.
Aber hier ist das Erschreckende an der ganzen Sache: Die Kompilierung dieser Art von Code dauert bei einem größeren Team normalerweise mehrere Wochen. Es würde uns nicht wundern, wenn ruchlose Hacker in diesem Moment bereits ähnliche Malware über ChatGPT entwickeln würden.
Empfehlungen der Redaktion
- ChatGPT: die neuesten Nachrichten, Kontroversen und Tipps, die Sie wissen müssen
- Was ist eine DAN-Eingabeaufforderung für ChatGPT?
- Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?
- Der ChatGPT-Website-Verkehr ist zum ersten Mal zurückgegangen
- Die Bing-Browsing-Funktion von ChatGPT wurde aufgrund eines Paywall-Zugriffsfehlers deaktiviert
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.