Haben Sie... benutzt ChatGPT von OpenAI für irgendetwas Lustiges in letzter Zeit? Sie können es bitten, Ihnen ein Lied, ein Gedicht oder einen Witz zu schreiben. Leider kann man von ihm auch Dinge verlangen, die tendenziell unethisch sind.
Inhalt
- Ein Alleskönner
- Partner bei Betrug
- Die Programmierung ist schief gelaufen
- Ersatz für Schularbeiten
- ChatGPT ist zu gut für sich
ChatGPT besteht nicht nur aus Sonnenschein und Regenbögen – einige der Dinge, die es tun kann, sind geradezu schändlich. Es ist allzu einfach, es zu einer Waffe zu machen und es aus den falschen Gründen einzusetzen. Was hat ChatGPT bereits getan und kann es tun, sollte es aber auf keinen Fall tun?
Empfohlene Videos
Ein Alleskönner
Egal, ob Sie sie lieben oder hassen, ChatGPT und ähnliche Chatbots werden Ihnen treu bleiben. Manche Menschen freuen sich darüber und manche wünschen, es wäre nie passiert, aber das ändert nichts an der Tatsache, dass die Präsenz von ChatGPT in unserem Leben mit der Zeit fast zwangsläufig zunehmen wird. Auch wenn Sie den Chatbot persönlich nicht nutzen, besteht die Möglichkeit, dass Sie bereits einige von ihm generierte Inhalte gesehen haben.
Verwandt
- Wix verwendet ChatGPT, um Ihnen beim schnellen Aufbau einer gesamten Website zu helfen
- Der ChatGPT-Hersteller OpenAI steht vor einer FTC-Untersuchung wegen Verbraucherschutzgesetzen
- Die Bing-Browsing-Funktion von ChatGPT wurde aufgrund eines Paywall-Zugriffsfehlers deaktiviert
Verstehen Sie mich nicht falsch, ChatGPT ist ziemlich großartig. Sie können es dazu verwenden ein Buch oder einen Artikel zusammenfassen, eine mühsame E-Mail verfassen, helfen Ihnen bei Ihrem Aufsatz, Interpretieren Sie Ihre astrologische Verfassung, oder sogar ein Lied komponieren. Es sogar jemandem geholfen, im Lotto zu gewinnen.
In vielerlei Hinsicht ist es auch einfacher zu verwenden als Ihre Standard-Google-Suche. Sie erhalten die Antwort in der gewünschten Form, ohne dass Sie verschiedene Websites danach durchsuchen müssen. Es ist prägnant, auf den Punkt gebracht und informativ und kann komplexe Dinge einfacher klingen lassen, wenn Sie es wünschen.
Dennoch kennen Sie den Satz: „Ein Alleskönner ist kein Meister, aber oft besser als ein Meister der Dinge.“ eins." ChatGPT ist in nichts, was es kann, perfekt, aber in vielen Dingen ist es besser als viele Leute hier Punkt.
Es kann jedoch ziemlich problematisch sein, dass es nicht perfekt ist. Allein die Tatsache, dass es sich um eine weit verbreitete Konversations-KI handelt, bedeutet, dass sie leicht missbraucht werden kann – und je leistungsfähiger ChatGPT wird, desto wahrscheinlicher ist es, dass es Menschen bei den falschen Dingen hilft.
Partner bei Betrug
Wenn Sie über ein E-Mail-Konto verfügen, haben Sie mit ziemlicher Sicherheit schon einmal eine Betrugs-E-Mail erhalten. Ist einfach so. Diese E-Mails gibt es schon seit langem im Internet, und bevor E-Mails verbreitet wurden, existierten sie noch als Postbetrug.
Ein weit verbreiteter Betrug, der bis heute funktioniert, ist der sogenannte „Prince Scam“, bei dem der Betrüger versucht, das Opfer davon zu überzeugen, ihm zu helfen, sein unglaubliches Vermögen in ein anderes Land zu übertragen.
Glücklicherweise wissen die meisten Menschen es besser, diese E-Mails überhaupt nicht zu öffnen, geschweige denn tatsächlich mit ihnen zu interagieren. Sie sind oft schlecht geschrieben, und das hilft einem anspruchsvolleren Opfer herauszufinden, dass etwas nicht stimmt.
Nun, sie müssen nicht mehr schlecht geschrieben sein, denn ChatGPT kann sie in wenigen Sekunden schreiben.
Ich habe ChatGPT gebeten, mir eine „glaubwürdige, äußerst überzeugende E-Mail“ im Stil des oben erwähnten Betrugs zu schreiben. ChatGPT hat einen Prinzen aus Nigeria erfunden, der mir angeblich 14,5 Millionen Dollar dafür geben wollte, dass ich ihm helfe. Die E-Mail ist voller blumiger Sprache, in perfektem Englisch verfasst und auf jeden Fall überzeugend.
Ich denke nicht, dass ChatGPT meiner Anfrage überhaupt zustimmen sollte, wenn ich ausdrücklich Betrug erwähne, aber das hat es getan, und Sie auch Ich kann wetten, dass es im Moment dasselbe für Leute tut, die diese E-Mails tatsächlich für etwas Illegales verwenden wollen.
Als ich ChatGPT darauf hinwies, dass es nicht zustimmen sollte, mir eine Betrugs-E-Mail zu schreiben, entschuldigte es sich. „Ich hätte bei der Erstellung einer Betrugs-E-Mail keine Hilfe leisten sollen, da dies gegen die ethischen Richtlinien verstößt, die für meine Verwendung gelten“, sagte der Chatbot.
ChatGPT lernt bei jedem Gespräch dazu, aber es hat offensichtlich nicht aus seinem früheren Fehler gelernt, denn als ich Ich bat ihn, mir im selben Gespräch eine Nachricht zu schreiben und dabei vorzugeben, Ryan Reynolds zu sein. Dies tat er jedoch ohne Frage. Die daraus resultierende Nachricht ist lustig, zugänglich und fordert den Leser auf, 1.000 US-Dollar zu senden, um „Ryan Reynolds“ kennenzulernen.
Am Ende der E-Mail hinterließ mir ChatGPT eine Nachricht, in der er mich aufforderte, diese Nachricht nicht für betrügerische Aktivitäten zu verwenden. Danke für die Erinnerung, Kumpel.
Die Programmierung ist schief gelaufen
ChatGPT 3.5 kann programmieren, ist aber alles andere als fehlerfrei. Da sind sich viele Entwickler einig GPT-4 macht einen viel besseren Job. Menschen haben ChatGPT verwendet, um ihre eigenen Spiele, Erweiterungen und Apps zu erstellen. Es ist auch als Lernhilfe sehr nützlich, wenn Sie lernen möchten, wie man selbst programmiert.
Als KI hat ChatGPT einen Vorteil gegenüber menschlichen Entwicklern – es kann jede Programmiersprache und jedes Framework erlernen.
Als KI hat ChatGPT im Vergleich zu menschlichen Entwicklern auch einen großen Nachteil: Es hat kein Gewissen. Sie können es auffordern, Malware oder Ransomware zu erstellen, und wenn Sie Ihre Aufforderung richtig formulieren, wird es tun, was Sie sagen.
Zum Glück ist es nicht so einfach. Ich habe versucht, ChatGPT zu bitten, mir ein ethisch sehr zweifelhaftes Programm zu schreiben, aber es hat abgelehnt – aber Forscher haben Wege gefunden, dies zu umgehen Und es ist besorgniserregend, dass man, wenn man schlau und hartnäckig genug ist, einen gefährlichen Code auf Silbermünzen in die Hand bekommen kann Teller.
Es gibt viele Beispiele dafür. Ein Sicherheitsforscher von Forcepoint war dazu in der Lage Lassen Sie ChatGPT Malware schreiben indem er eine Lücke in seinen Aufforderungen findet.
Forscher aus CyberArk, einem Identitätssicherheitsunternehmen, gelang es, ChatGPT dazu zu bringen, polymorphe Malware zu schreiben. Das war im Januar – OpenAI hat seitdem die Sicherheit für solche Dinge verschärft.
Dennoch tauchen immer wieder neue Berichte über die Verwendung von ChatGPT zur Erstellung von Malware auf. Wie berichtet von Dunkle Lektüre Erst vor wenigen Tagen gelang es einem Forscher, ChatGPT dazu zu bringen, Malware zu entwickeln, die bestimmte Dokumente finden und ausschleusen kann.
ChatGPT muss nicht einmal bösartigen Code schreiben, um etwas Dubioses zu tun. Erst kürzlich ist es gelungen Generieren Sie gültige Windows-Schlüssel, was die Tür zu einer völlig neuen Ebene des Knackens von Software öffnet.
Lassen Sie uns auch nicht die Tatsache beschönigen, dass die Programmierfähigkeiten von GPT-4 dies können Millionen Menschen arbeitslos machen einmal. Es ist sicherlich ein zweischneidiges Schwert.
Ersatz für Schularbeiten
Heutzutage ertrinken viele Kinder und Jugendliche in ihren Hausaufgaben, was dazu führen kann, dass sie nach Möglichkeit Abstriche machen wollen. Das Internet an sich ist bereits eine großartige Plagiatshilfe, aber ChatGPT bringt es auf die nächste Stufe.
Ich habe ChatGPT gebeten, mir einen Aufsatz mit 500 Wörtern über den Roman zu schreiben Stolz und Voreingenommenheit. Ich habe nicht einmal versucht, so zu tun, als ob es zum Spaß gemacht worden wäre – ich habe mir eine Geschichte über ein Kind ausgedacht, das ich nicht habe, und gesagt, dass es für sie sei. Ich habe angegeben, dass das Kind in der 12. Klasse ist.
ChatGPT folgte meiner Aufforderung ohne Frage. Der Aufsatz ist nicht großartig, aber meine Aufforderung war nicht sehr präzise, und er ist wahrscheinlich besser als das, was viele von uns in diesem Alter geschrieben haben.
Um den Chatbot noch mehr zu testen, habe ich dann vorhin gesagt, dass ich mich mit der Angabe des Alters meines Kindes geirrt habe, und dass sie tatsächlich in der achten Klasse sind. Ziemlich großer Altersunterschied, aber ChatGPT hat nicht einmal mit der Wimper gezuckt – es hat den Aufsatz einfach in einer einfacheren Sprache umgeschrieben.
Die Verwendung von ChatGPT zum Schreiben von Aufsätzen ist nichts Neues. Manche könnten argumentieren, dass es nur eine gute Sache wäre, wenn der Chatbot dazu beiträgt, die Idee der Hausaufgaben abzuschaffen. Aber im Moment gerät die Situation ein wenig außer Kontrolle, und selbst Studierende, die ChatGPT nicht nutzen, könnten darunter leiden.
Lehrer und Professoren sind mittlerweile fast gezwungen, KI-Detektoren einzusetzen, wenn sie überprüfen wollen, ob ihre Schüler bei einem Aufsatz betrogen haben. Leider sind diese KI-Detektoren alles andere als perfekt.
Sowohl Nachrichtenagenturen als auch Eltern berichten über Fälle falscher Betrugsvorwürfe gegen Schüler, alles nur, weil KI-Detektoren keine gute Arbeit leisten. USA heute sprach über den Fall eines College-Studenten, der des Betrugs beschuldigt und später freigesprochen wurde, aber die ganze Situation verursachte bei ihm „ausgewachsene Panikattacken“.
Auf Twitter sagte ein Elternteil, dass ein Lehrer sein Kind im Stich gelassen habe, weil das Tool einen Aufsatz als von KI verfasst markiert habe. Der Elternteil behauptet, beim Verfassen des Aufsatzes bei dem Kind gewesen zu sein.
Der Lehrer hat meinem Kind gerade eine Null für einen Aufsatz gegeben, den er mit meiner Unterstützung fertiggestellt hat, weil einige KI-generierte Texte nicht mehr funktionieren Das Tool hat seine Arbeit gemeldet und sie hat ihn ohne eine einzige Diskussion im Stich gelassen. Hier sind wir also mit dieser Technologie 2023
– failnaut (@failnaut) 10. April 2023
Um es selbst zu testen, habe ich genau diesen Artikel eingefügt ZeroGPT Und Writer AI Content Detector. Beide sagten, es sei von einem Menschen geschrieben worden, aber ZeroGPT sagte, dass etwa 30 % davon von KI geschrieben wurden. Unnötig zu erwähnen, dass dies nicht der Fall war.
Fehlerhafte KI-Detektoren sind kein Anzeichen für Probleme mit ChatGPT selbst, aber der Chatbot ist immer noch die Hauptursache des Problems.
ChatGPT ist zu gut für sich
Ich spiele mit ChatGPT, seit es der Öffentlichkeit zugänglich gemacht wurde. Ich habe beide abonnementbasierten Versionen ausprobiert ChatGPT Plus und das kostenlose Modell, das für jedermann verfügbar ist. Die Leistung des neuen GPT-4 ist unbestreitbar. ChatGPT ist jetzt noch glaubwürdiger als zuvor und wird mit Sicherheit nur noch besser GPT-5 (falls das jemals rauskommt).
Es ist großartig, aber es ist beängstigend. ChatGPT wird zu gut für sich selbst und gleichzeitig – für unser eigenes Wohlergehen.
Im Zentrum des Ganzen steht eine einfache Sorge, die seit langem in verschiedenen Science-Fiction-Filmen thematisiert wird: KI ist es einfach auch schlau und zu dumm zugleich, und solange es zum Guten genutzt werden kann, wird es in ebenso vielen Fällen auch zum Schlechten genutzt Wege. Die oben aufgeführten Möglichkeiten sind nur die Spitze des Eisbergs.
Empfehlungen der Redaktion
- Top-Autoren verlangen von KI-Firmen eine Bezahlung für die Nutzung ihrer Arbeit
- Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?
- Der ChatGPT-Website-Verkehr ist zum ersten Mal zurückgegangen
- Laut einer Umfrage halten 81 % ChatGPT für ein Sicherheitsrisiko
- Der ChatGPT-Konkurrent von Apple schreibt möglicherweise automatisch Code für Sie