ChatGPT è uno strumento meraviglioso ma c'è un lato oscuro in questo servizio di intelligenza artificiale avanzato che può scrivere come un esperto su quasi tutti gli argomenti: il plagio. Quando gli studenti che dovrebbero dimostrare la loro conoscenza e comprensione di un argomento imbrogliano usando segretamente ChatGPT, ciò invalida i test e la valutazione. Le abilità di intelligenza artificiale sono fantastiche ma non sono l'unica materia che gli studenti dovrebbero imparare.
La sorveglianza di questo problema si è rivelata difficile. Poiché ChatGPT è stato addestrato su un vasto set di dati di scrittura umana, è quasi impossibile per un istruttore identificare se un saggio è stato creato da uno studente o da una macchina. Sono stati creati diversi strumenti che tentare di riconoscere la scrittura generata dall'intelligenza artificiale, ma la precisione era troppo bassa per essere utile.
Video consigliati
Tra le crescenti preoccupazioni degli educatori e i divieti agli studenti di utilizzare ChatGPT,
Business Insider riferisce che OpenAI sta lavorando a una soluzione a questo problema. Un recente tweet di Tom Goldstein, professore associato di apprendimento automatico presso l'Università del Maryland, ha spiegato quanto potrebbe essere accurato rilevare il testo con filigrana scritto da ChatGPT.#OpenAI ha intenzione di fermarsi #ChatGPT utenti di creare bot di social media e barare sui compiti con "filigrana" output. Quanto bene potrebbe funzionare davvero? Ecco solo 23 parole da un LLM filigranato con parametro 1.3B. L'abbiamo rilevato con una confidenza del 99,999999999994%. Ecco come 🧵 pic.twitter.com/pVC9M3qPyQ
— Tom Goldstein (@tomgoldsteincs) 25 gennaio 2023
Qualsiasi strumento in grado di identificare il plagio con una precisione quasi del 100% risolverebbe rapidamente questa discussione e allevierebbe qualsiasi preoccupazione. Secondo Goldstein, una soluzione è fare in modo che il modello di linguaggio di grandi dimensioni (LLM) scelga da un numero limitato vocabolario di parole, formando una lista bianca che va bene per l'IA da usare e una lista nera di parole che sono vietato. Se in un campione compare un numero innaturalmente elevato di parole della whitelist, ciò suggerirebbe che sia stato generato dall'intelligenza artificiale.
Questo approccio semplicistico sarebbe troppo restrittivo poiché è difficile prevedere quali parole potrebbero essere necessarie per una discussione quando si lavora una parola alla volta, come fa la maggior parte dei LLM. Goldstein suggerisce che a ChatGPT potrebbe essere data la possibilità di guardare avanti oltre una parola in modo che possa pianificare una frase che può essere riempita con parole autorizzate pur avendo un senso.
ChatGPT ha avuto un grande successo quando è entrato il pool di scrittura della comunità e può essere anche un ottimo aiuto didattico. È importante introdurre l'intelligenza artificiale nelle scuole poiché sarà chiaramente una tecnologia importante da capire in futuro, ma continuerà ad essere controverso fino a quando la questione del plagio lo sarà affrontato.
Raccomandazioni della redazione
- Google Bard ora può parlare, ma può soffocare ChatGPT?
- ChatGPT: le ultime notizie, controversie e suggerimenti che devi conoscere
- La funzione di navigazione Bing di ChatGPT è stata disabilitata a causa di un difetto di accesso al paywall
- OpenAI rivela la posizione del suo primo avamposto internazionale
- L'81% pensa che ChatGPT sia un rischio per la sicurezza, rileva il sondaggio
Aggiorna il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, recensioni divertenti sui prodotti, editoriali penetranti e anticipazioni uniche.