Ist ChatGPT eine Cybersicherheitskatastrophe? Wir haben die Experten gefragt

Die Hand einer Person hält ein Smartphone. Das Smartphone zeigt die Website für die generative KI ChatGPT an.
Sanket Mishra / Pexels

ChatGPT fühlt sich im Moment ziemlich unausweichlich an, mit Geschichten staunt über seine Fähigkeiten scheinbar überall, wo man hinschaut. Wir haben gesehen, wie es Musik schreiben, 3D-Animationen rendern und Musik komponieren kann. Wenn es Ihnen einfällt, kann ChatGPT es wahrscheinlich versuchen.

Inhalt

  • Fragwürdige Fähigkeiten
  • Der Freund eines Phishers
  • Kann ChatGPT Ihre Cybersicherheit erhöhen?
  • So schützen Sie sich

Und genau das ist das Problem. In der Tech-Community herrscht derzeit allerhand Streit, und Kommentatoren befürchten häufig, dass es um KI geht Dies könnte zu einer Malware-Apokalypse führen, bei der selbst die mutigsten Hacker unaufhaltsame Trojaner und Ransomware heraufbeschwören.

Empfohlene Videos

Aber stimmt das tatsächlich? Um das herauszufinden, habe ich mit einer Reihe von Cybersicherheitsexperten gesprochen, um zu erfahren, was sie von den Malware-Fähigkeiten von ChatGPT halten. ob sie sich Sorgen über den möglichen Missbrauch machten und was Sie tun können, um sich in dieser aufkommenden Neuzeit zu schützen Welt.

Verwandt

  • Der ChatGPT-Hersteller OpenAI steht vor einer FTC-Untersuchung wegen Verbraucherschutzgesetzen
  • Laut einer Umfrage halten 81 % ChatGPT für ein Sicherheitsrisiko
  • Ich habe ChatGPT beigebracht, mir Brettspiele beizubringen, und jetzt werde ich nie mehr zurückgehen

Fragwürdige Fähigkeiten

Eine Person tippt auf einem Laptop, auf dem die generative KI-Website von ChatGPT angezeigt wird.
Matheus Bertelli / Pexels

Eine der Hauptattraktionen von ChatGPT ist seine Fähigkeit, komplizierte Aufgaben mit nur wenigen einfachen Eingabeaufforderungen auszuführen, insbesondere in der Welt der Programmierung. Es besteht die Befürchtung, dass dies die Eintrittsbarrieren für die Erstellung von Malware senken würde, was möglicherweise zu einer Verbreitung von Virenautoren führen würde, die sich auf KI-Tools verlassen, um die schwere Arbeit für sie zu erledigen.

Joshua Long, Chef-Sicherheitsanalyst beim Sicherheitsunternehmen Intego, veranschaulicht diesen Punkt. „Wie jedes Werkzeug in der physischen oder virtuellen Welt kann Computercode zum Guten oder zum Bösen eingesetzt werden“, erklärt er. „Wenn Sie beispielsweise Code anfordern, der eine Datei verschlüsseln kann, kann ein Bot wie ChatGPT Ihre wahre Absicht nicht kennen. Wenn Sie behaupten, dass Sie einen Verschlüsselungscode benötigen, um Ihre eigenen Dateien zu schützen, wird der Bot Ihnen glauben – selbst wenn Ihr eigentliches Ziel darin besteht, Ransomware zu erstellen.“

ChatGPT verfügt über verschiedene Schutzmaßnahmen, um solche Dinge zu bekämpfen, und der Trick für Virenersteller besteht darin, diese Schutzmaßnahmen zu umgehen. Fordern Sie ChatGPT unverblümt auf, einen effektiven Virus zu erstellen, und er wird sich einfach weigern, und Sie müssen kreativ werden, um ihn zu überlisten und ihn wider besseres Wissen dazu zu bringen, Ihren Befehlen nachzukommen. Überlegen Sie, womit die Menschen alles anfangen können Jailbreaks in ChatGPT, die Möglichkeit, mithilfe von KI Malware zu erstellen, erscheint theoretisch möglich. In der Tat, es wurde bereits demonstriertWir wissen also, dass es möglich ist.

Aber nicht jeder gerät in Panik. Martin Zugec, Technical Solutions Director bei Bitdefender, hält die Risiken noch für recht gering. „Die Mehrheit der unerfahrenen Malware-Autoren verfügt wahrscheinlich nicht über die erforderlichen Fähigkeiten, um diese Sicherheitsmaßnahmen zu umgehen Maßnahmen, und daher bleibt das Risiko, das von Chatbot-generierter Malware ausgeht, derzeit relativ gering“, sagte er sagt.

„Von Chatbots generierte Malware war in letzter Zeit ein beliebtes Diskussionsthema“, fährt Zugec fort, „aber derzeit gibt es das auch.“ Es gibt keine Hinweise darauf, dass es in naher Zukunft eine erhebliche Bedrohung darstellt.“ Und dafür gibt es einen einfachen Grund. Laut Zugec ist „die Qualität des von Chatbots erzeugten Malware-Codes tendenziell gering und daher schlechter.“ attraktive Option für erfahrene Malware-Autoren, die bessere Beispiele im öffentlichen Code finden können Repositorien.“

ChatGPT-App läuft auf einem iPhone.
Joe Maring/Digitale Trends

Es ist zwar durchaus möglich, ChatGPT dazu zu bringen, bösartigen Code zu erstellen, aber jeder, der über die nötigen Fähigkeiten verfügt Der für die Manipulation des KI-Chatbots erforderliche Computer dürfte von dem schlechten Code, den er erstellt, unbeeindruckt sein, so Zugec glaubt.

Aber wie Sie sich vielleicht vorstellen können, steht die generative KI gerade erst am Anfang. Und für Long bedeutet das, dass die von ChatGPT ausgehenden Hacking-Risiken noch nicht in Stein gemeißelt sind.

„Es ist möglich, dass der Aufstieg LLM-basierter KI-Bots zu einem kleinen bis moderaten Anstieg neuer Malware oder einer Verbesserung bei Malware führt Funktionen und Antivirenumgehung“, sagt Long und verwendet dabei ein Akronym für die großen Sprachmodelle, die KI-Tools wie ChatGPT zum Erstellen ihrer verwenden Wissen. „Zu diesem Zeitpunkt ist jedoch nicht klar, welchen direkten Einfluss Tools wie ChatGPT auf reale Malware-Bedrohungen haben oder haben werden.“

Der Freund eines Phishers

Person tippt auf einer Computertastatur.

Wenn die Code-Schreibfähigkeiten von ChatGPT noch nicht auf dem neuesten Stand sind, könnte es dann auf andere Weise eine Bedrohung darstellen, beispielsweise durch das Schreiben effektiverer Phishing- und Social-Engineering-Kampagnen? Hier sind sich die Analysten einig, dass deutlich mehr Missbrauchspotenzial besteht.

Ein potenzieller Angriffsvektor für viele Unternehmen sind die Mitarbeiter des Unternehmens, die ausgetrickst oder manipuliert werden können, um unbeabsichtigt Zugriff zu gewähren, wo sie es nicht sollten. Hacker wissen das, und es gab viele aufsehenerregende Social-Engineering-Angriffe, die sich als katastrophal erwiesen haben. Es wird beispielsweise angenommen, dass die nordkoreanische Lazarus-Gruppe den Startschuss gegeben hat 2014 Eindringen in die Systeme von Sony – was zum Durchsickern unveröffentlichter Filme und persönlicher Daten führte – indem man sich als Personalvermittler ausgab und einen Sony-Mitarbeiter dazu brachte, eine infizierte Datei zu öffnen.

Dies ist ein Bereich, in dem ChatGPT Hackern und Phishern erheblich dabei helfen könnte, ihre Arbeit zu verbessern. Wenn beispielsweise Englisch nicht die Muttersprache eines Bedrohungsakteurs ist, könnte er mithilfe eines KI-Chatbots eine überzeugende Phishing-E-Mail für ihn verfassen, die sich an englischsprachige Personen richtet. Oder es könnte verwendet werden, um schnell eine große Anzahl überzeugender Botschaften in viel kürzerer Zeit zu erstellen, als menschliche Bedrohungsakteure für die gleiche Aufgabe benötigen würden.

Die Lage könnte noch schlimmer werden, wenn andere KI-Tools hinzukommen. Wie Karen Renaud, Merrill Warkentin und George Westerman postuliert haben Sloan Management Review des MIT, könnte ein Betrüger mithilfe von ChatGPT ein Skript erstellen und es am Telefon von einer gefälschten Stimme vorlesen lassen, die sich als CEO eines Unternehmens ausgibt. Für einen Mitarbeiter des Unternehmens, der den Anruf erhält, würde die Stimme genauso klingen und wirken wie die ihres Chefs. Wenn diese Stimme den Mitarbeiter auffordert, einen Geldbetrag auf ein neues Bankkonto zu überweisen, könnte der Mitarbeiter aufgrund der Ehrerbietung, die er seinem Chef entgegenbringt, durchaus auf den Trick hereinfallen.

Wie Long es ausdrückt: „[Bedrohungsakteure] müssen sich nicht länger auf ihre eigenen (oft mangelhaften) Englischkenntnisse verlassen, um eine überzeugende Betrugs-E-Mail zu verfassen.“ Sie müssen sich auch nicht einmal eine eigene clevere Formulierung ausdenken und diese über Google Translate übertragen. Stattdessen schreibt ChatGPT – ohne sich der potenziellen böswilligen Absicht hinter der Anfrage überhaupt nicht bewusst zu sein – gerne den gesamten Text der Betrugs-E-Mail in jeder gewünschten Sprache.“

Und alles, was erforderlich ist, um ChatGPT dazu zu bringen, dies tatsächlich zu tun, ist eine clevere Aufforderung.

Kann ChatGPT Ihre Cybersicherheit erhöhen?

Ein Laptop öffnete die ChatGPT-Website.
Shutterstock

Dennoch ist nicht alles schlecht. Dieselben Eigenschaften, die ChatGPT zu einem attraktiven Tool für Bedrohungsakteure machen – seine Geschwindigkeit und seine Fähigkeit, Fehler im Code zu finden – machen es zu einer hilfreichen Ressource für Cybersicherheitsforscher und Antivirenfirmen.

Long weist darauf hin, dass Forscher bereits KI-Chatbots verwenden, um noch unentdeckte („Zero-Day“) Sie können Schwachstellen im Code erkennen, indem Sie einfach den Code hochladen und ChatGPT bitten, zu prüfen, ob potenzielle Schwachstellen erkannt werden können Schwächen. Das bedeutet, dass die gleiche Methode, die die Abwehrkräfte schwächen könnte, auch zu ihrer Stärkung eingesetzt werden kann.

Und während die Hauptattraktion von ChatGPT für Bedrohungsakteure möglicherweise in seiner Fähigkeit liegt, plausible Phishing-Nachrichten zu verfassen, Dieselben Talente können dabei helfen, Unternehmen und Benutzern beizubringen, worauf sie achten müssen, um Betrug zu vermeiden sich. Es könnte auch dazu verwendet werden, Malware zurückzuentwickeln und Forschern und Sicherheitsfirmen dabei zu helfen, schnell Gegenmaßnahmen zu entwickeln.

Letztendlich ist ChatGPT an sich weder gut noch schlecht. Zugec betont: „Das Argument, dass KI die Entwicklung von Malware erleichtern kann, könnte auf jedes andere Argument zutreffen.“ technologischer Fortschritt, der Entwicklern zugute gekommen ist, wie z. B. Open-Source-Software oder Code-Sharing Plattformen.“

Mit anderen Worten: Solange die Sicherheitsmaßnahmen weiter verbessert werden, besteht auch die Gefahr, die von ihnen ausgeht beste KI-Chatbots wird möglicherweise nie so gefährlich werden, wie kürzlich vorhergesagt wurde.

So schützen Sie sich

Der ChatGPT-Name neben einem OpenAI-Logo auf einem schwarz-weißen Hintergrund.

Wenn Sie sich Sorgen über die Bedrohungen machen, die von KI-Chatbots ausgehen, und über die Malware, die sie missbrauchen können, können Sie einige Schritte unternehmen, um sich zu schützen. Zugec sagt, es sei wichtig, einen „mehrschichtigen Verteidigungsansatz“ zu verfolgen, der „die Implementierung von Endpunkt-Sicherheitslösungen sowie die Aufbewahrung von Software und Systemen“ umfasst auf dem Laufendenund wachsam gegenüber verdächtigen Nachrichten oder Anfragen bleiben.“

Long empfiehlt hingegen, sich von Dateien fernzuhalten, zu deren Installation Sie beim Besuch einer Website automatisch aufgefordert werden. Wenn Sie eine App aktualisieren oder herunterladen möchten, besorgen Sie sich diese im offiziellen App Store oder auf der Website des Softwareanbieters. Und seien Sie vorsichtig, wenn Sie auf Suchergebnisse klicken oder sich auf einer Website anmelden – Hacker können einfach dafür bezahlen, ihre Betrugsseiten ganz oben in den Suchergebnissen zu platzieren und Ihre Anmeldeinformationen zu stehlen sorgfältig gestaltete Lookalike-Websites.

ChatGPT wird nirgendwo hingehen, und die Malware, die weltweit so großen Schaden anrichtet, auch nicht. Während die Bedrohung durch die Codierungsfähigkeiten von ChatGPT vorerst vielleicht übertrieben ist, könnte seine Fähigkeit, Phishing-E-Mails zu erstellen, allerlei Kopfschmerzen verursachen. Dennoch ist es durchaus möglich, sich vor der Bedrohung zu schützen und sicherzustellen, dass Sie nicht zum Opfer werden. Im Moment kann viel Vorsicht – und eine solide Antiviren-App – dabei helfen, die Sicherheit Ihrer Geräte zu gewährleisten.

Empfehlungen der Redaktion

  • Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?
  • Der ChatGPT-Website-Verkehr ist zum ersten Mal zurückgegangen
  • Der ChatGPT-Konkurrent von Apple schreibt möglicherweise automatisch Code für Sie
  • Anwälte in New York wurden mit einer Geldstrafe belegt, weil sie gefälschte ChatGPT-Fälle in juristischen Schriftstücken verwendet hatten
  • Dieser Webbrowser integriert ChatGPT auf faszinierende neue Weise