Hacker nutzen KI, um bösartige Malware zu erstellen, sagt das FBI

Mehr als 9.000 Autoren haben einen offenen Brief an führende Technologieunternehmen unterzeichnet, in dem sie ihre Besorgnis darüber zum Ausdruck bringen, wie sie ihre urheberrechtlich geschützten Werke zum Trainieren von KI-gestützten Chatbots verwenden.

Der Brief wurde von der Authors Guild an CEOs von OpenAI, Alphabet, Meta, Stability AI, IBM und Microsoft geschickt und macht darauf aufmerksam, was er bedeutet beschreibt als „die inhärente Ungerechtigkeit der Nutzung unserer Werke als Teil Ihrer KI-Systeme ohne unsere Zustimmung, unseren Kredit oder.“ Entschädigung."

Die Leute waren beeindruckt, als ChatGPT herauskam, beeindruckt von seinen natürlichen Sprachfähigkeiten als KI-Chatbot. Aber als das mit Spannung erwartete große Sprachmodell GPT-4 herauskam, hat es uns völlig umgehauen Man dachte, es sei mit KI möglich, manche nennen es die frühen Einblicke in AGI (künstlicher General). Intelligenz).

Der Erfinder des Modells, OpenAI, nennt es das „fortschrittlichste System des Unternehmens, das sicherer und mehr produziert“. nützliche Antworten.“ Hier finden Sie alles, was Sie darüber wissen müssen, einschließlich der Verwendung und der Funktionen, die es bietet Tun.


Verfügbarkeit

Die DAN-Eingabeaufforderung ist eine Methode zum Jailbreak des ChatGPT-Chatbots. Es steht für Do Anything Now und versucht ChatGPT davon zu überzeugen, einige der Sicherheitsprotokolle zu ignorieren Der Entwickler OpenAI hat es eingeführt, um zu verhindern, dass es rassistisch, homophob, anderweitig anstößig und potenziell anstößig ist schädlich. Die Ergebnisse sind gemischt, aber wenn es funktioniert, kann der DAN-Modus ganz gut funktionieren.

Was ist die DAN-Eingabeaufforderung?
DAN steht für Do Anything Now. Dabei handelt es sich um eine Art Aufforderung, die versucht, ChatGPT dazu zu bringen, Dinge zu tun, die es nicht tun sollte, etwa zu fluchen, negativ über jemanden zu sprechen oder sogar Malware zu programmieren. Der tatsächliche Aufforderungstext variiert, aber in der Regel wird ChatGPT gebeten, auf zwei Arten zu antworten: einmal wie üblich, mit einer Bezeichnung wie „ChatGPT“, „Classic“ oder etwas Ähnlichem und dann einer zweiten Antwort im „Entwicklermodus“ oder „Boss“ Modus. Dieser zweite Modus unterliegt weniger Einschränkungen als der erste Modus, sodass ChatGPT (theoretisch) ohne die üblichen Sicherheitsmaßnahmen reagieren kann, die steuern, was es sagen darf und was nicht.