ChatGPT ist ein wunderbares Tool, aber dieser fortschrittliche KI-Dienst hat eine Schattenseite, der wie ein Experte zu fast jedem Thema schreiben kann – Plagiate. Wenn Schüler, die ihr Wissen und Verständnis für ein Thema unter Beweis stellen sollen, durch die heimliche Verwendung von ChatGPT betrügen, werden Tests und Benotungen ungültig. KI-Fähigkeiten sind großartig, aber nicht das einzige Fach, das Schüler lernen sollten.
Die Überwachung dieses Problems hat sich als schwierig erwiesen. Da ChatGPT anhand eines riesigen Datensatzes menschlichen Schreibens trainiert wurde, ist es für einen Dozenten nahezu unmöglich zu erkennen, ob ein Aufsatz von einem Studenten oder einer Maschine erstellt wurde. Dafür wurden mehrere Tools erstellt Versuchen Sie, KI-generiertes Schreiben zu erkennen, aber die Genauigkeit war zu gering, um nützlich zu sein.
Empfohlene Videos
Angesichts der zunehmenden Bedenken von Lehrkräften und der Verbote für Schüler, ChatGPT zu nutzen, Geschäftseingeweihter berichtet, dass OpenAI an einer Lösung für dieses Problem arbeitet. Ein kürzlich
twittern von Tom Goldstein, außerordentlicher Professor für maschinelles Lernen an der University of Maryland, erklärte, wie genau es bei der Erkennung von Text mit Wasserzeichen sein könnte, der von ChatGPT geschrieben wurde.#OpenAI plant aufzuhören #ChatGPT verhindern, dass Benutzer Social-Media-Bots erstellen und Hausaufgaben betrügen, indem sie Ausgaben mit „Wasserzeichen“ versehen. Wie gut könnte das wirklich funktionieren? Hier sind nur 23 Wörter aus einem LLM mit 1,3B Parametern und Wasserzeichen. Wir haben es mit einer Sicherheit von 99,999999999994 % entdeckt. So geht's 🧵 pic.twitter.com/pVC9M3qPyQ
— Tom Goldstein (@tomgoldsteincs) 25. Januar 2023
Jedes Tool, das Plagiate mit nahezu 100-prozentiger Genauigkeit erkennen könnte, würde diese Diskussion schnell beilegen und etwaige Bedenken ausräumen. Laut Goldstein besteht eine Lösung darin, das große Sprachmodell (LLM) aus einem begrenzten Modell auswählen zu lassen Vokabular von Wörtern, Bildung einer Whitelist, die für die KI in Ordnung ist, und einer Blacklist von Wörtern, die dies tun verboten. Wenn in einer Stichprobe unnatürlich viele Whitelist-Wörter auftauchen, deutet das darauf hin, dass sie von der KI generiert wurden.
Dieser vereinfachte Ansatz wäre zu restriktiv, da es schwierig ist, vorherzusagen, welche Wörter für eine Diskussion erforderlich sein könnten, wenn man, wie die meisten LLMs, nur ein Wort nach dem anderen bearbeitet. Goldstein schlägt vor, dass ChatGPT die Möglichkeit erhalten könnte, über mehr als ein Wort hinauszuschauen, sodass es einen Satz planen kann, der mit Wörtern auf der Whitelist gefüllt werden kann und dennoch einen Sinn ergibt.
ChatGPT sorgte bei seiner Markteinführung für großes Aufsehen Der Community-Schreibpool kann auch ein großartiger Lehrhelfer sein. Es ist wichtig, künstliche Intelligenz in Schulen einzuführen, da es sich eindeutig um eine wichtige Technologie handelt in Zukunft zu verstehen, aber es wird weiterhin umstritten sein, bis das Thema Plagiat gelöst ist angesprochen.
Empfehlungen der Redaktion
- Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?
- ChatGPT: die neuesten Nachrichten, Kontroversen und Tipps, die Sie wissen müssen
- Die Bing-Browsing-Funktion von ChatGPT wurde aufgrund eines Paywall-Zugriffsfehlers deaktiviert
- OpenAI gibt den Standort seines ersten internationalen Außenpostens bekannt
- Laut einer Umfrage halten 81 % ChatGPT für ein Sicherheitsrisiko
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.