Il lato oscuro di ChatGPT: cose che può fare, ma non dovrebbe

click fraud protection

Hai usato ChatGPT di OpenAI per qualcosa di divertente ultimamente? Puoi chiedergli di scriverti una canzone, una poesia o una barzelletta. Sfortunatamente, puoi anche chiedergli di fare cose che tendono ad essere non etiche.

Contenuti

  • Un tuttofare
  • Partner nella truffa
  • Programmazione andata male
  • Sostituzione dei compiti scolastici
  • ChatGPT è troppo bello per il suo bene

ChatGPT non è tutto sole e arcobaleni: alcune delle cose che può fare sono decisamente nefaste. È fin troppo facile trasformarlo in un’arma e usarlo per tutte le ragioni sbagliate. Quali sono alcune delle cose che ChatGPT ha fatto e può fare, ma sicuramente non dovrebbe?

Video consigliati

Un tuttofare

Un MacBook Pro su una scrivania con il sito web di ChatGPT visualizzato sul display.
Hatice Baran / Unsplash

Che tu li ami o li odi, ChatGPT e chatbot simili sono qui per restare. Alcune persone ne sono felici e altre vorrebbero non essere mai state create, ma ciò non cambia il fatto che la presenza di ChatGPT nelle nostre vite è quasi destinata a crescere nel tempo. Anche se personalmente non usi il chatbot, è probabile che tu abbia già visto alcuni contenuti generati da esso.

Imparentato

  • Wix utilizza ChatGPT per aiutarti a creare rapidamente un intero sito web
  • OpenAI, produttore di ChatGPT, affronta l'indagine della FTC sulle leggi sulla protezione dei consumatori
  • La funzionalità di navigazione Bing di ChatGPT è stata disabilitata a causa di un difetto di accesso al paywall

Non fraintendermi, ChatGPT è davvero fantastico. Puoi usarlo per riassumere un libro o un articolo, crea una noiosa email, aiutarti con il tuo saggio, interpreta la tua composizione astrologicao addirittura comporre una canzone. Anche ha aiutato qualcuno a vincere alla lotteria.

In molti modi, è anche più facile da usare rispetto alla ricerca standard su Google. Ottieni la risposta nella forma desiderata senza dover navigare in diversi siti Web per ottenerla. È conciso, diretto e informativo, e può far sembrare più semplici le cose complesse se glielo chiedi.

Tuttavia, conosci la frase: "Un tuttofare non è un maestro di nessuno, ma spesso è migliore di un maestro di uno." ChatGPT non è perfetto in tutto ciò che fa, ma in molte cose è migliore di molte persone in questo punto.

Tuttavia, non essere perfetto può essere piuttosto problematico. Il semplice fatto che si tratti di un’intelligenza artificiale conversazionale ampiamente disponibile significa che può essere facilmente utilizzata in modo improprio e più ChatGPT diventa potente, più è probabile che aiuti le persone con le cose sbagliate.

Partner nella truffa

Se disponi di un account e-mail, quasi sicuramente a un certo punto hai ricevuto un'e-mail truffa. E’ proprio così. Quelle e-mail esistono da quando Internet e, prima che la posta elettronica fosse comune, esistevano ancora come truffe tramite posta ordinaria.

Una truffa comune che funziona ancora oggi è la cosiddetta “truffa Prince”, in cui il truffatore cerca di persuadere la vittima ad aiutarla a trasferire la sua incredibile fortuna in un altro paese.

Fortunatamente, la maggior parte delle persone sa che è meglio non aprire queste e-mail, per non parlare di interagire effettivamente con esse. Spesso sono scritti male e questo aiuta una vittima più esigente a capire che qualcosa sembra non andare.

Bene, non devono più essere scritti male, perché ChatGPT può scriverli in pochi secondi.

Uno screenshot che mostra un'e-mail di truffa generata da ChatGPT.

Ho chiesto a ChatGPT di scrivermi una "e-mail credibile e altamente persuasiva" nello stile della truffa di cui ho parlato sopra. ChatGPT ha inventato un principe nigeriano che presumibilmente voleva darmi 14,5 milioni di dollari per averlo aiutato. L'e-mail è piena di un linguaggio fiorito, è scritta in un inglese perfetto ed è certamente persuasiva.

Non penso che ChatGPT dovrebbe nemmeno accettare la mia richiesta quando menziono specificamente le truffe, ma così è stato, e tu posso scommettere che sta facendo lo stesso proprio ora per le persone che vogliono effettivamente utilizzare queste e-mail per qualcosa di illegale.

Quando ho fatto notare a ChatGPT che non avrebbe dovuto accettare di scrivermi un’e-mail truffa, si è scusato. "Non avrei dovuto fornire assistenza nella creazione di un'e-mail truffa, poiché va contro le linee guida etiche che ne regolano l'utilizzo", ha affermato il chatbot.

Screenshot di un'e-mail di truffa generata da ChatGPT.

ChatGPT impara durante ogni conversazione, ma chiaramente non ha imparato dall'errore precedente, perché quando I gli ho chiesto di scrivermi un messaggio fingendo di essere Ryan Reynolds nella stessa conversazione, lo ha fatto senza domanda. Il messaggio risultante è divertente, accessibile e chiede al lettore di inviare $ 1.000 per avere la possibilità di incontrare "Ryan Reynolds".

Alla fine dell'e-mail, ChatGPT mi ha lasciato una nota, chiedendomi di non utilizzare questo messaggio per attività fraudolente. Grazie per il promemoria, amico.

Programmazione andata male

Una mano oscura e misteriosa che digita su un computer portatile di notte.
Andrew Brookes/Getty Images

ChatGPT 3.5 può codificare, ma è tutt'altro che impeccabile. Molti sviluppatori sono d'accordo su questo GPT-4 sta facendo un lavoro molto migliore. Le persone hanno utilizzato ChatGPT per creare i propri giochi, estensioni e app. È anche molto utile come aiuto nello studio se stai cercando di imparare a programmare da solo.

Essendo un'intelligenza artificiale, ChatGPT ha un vantaggio rispetto agli sviluppatori umani: può apprendere ogni linguaggio e framework di programmazione.

In quanto intelligenza artificiale, ChatGPT ha anche un grosso svantaggio rispetto agli sviluppatori umani: non ha una coscienza. Puoi chiedergli di creare malware o ransomware e, se digiti correttamente la richiesta, farà come dici.

Fortunatamente, non è così semplice. Ho provato a chiedere a ChatGPT di scrivermi un programma molto dubbio dal punto di vista etico e si è rifiutato, ma i ricercatori hanno trovato il modo di aggirarlo questo, ed è allarmante che se sei abbastanza intelligente e testardo, puoi farti consegnare un pezzo di codice pericoloso su un foglio d'argento piatto.

Ci sono molti esempi di ciò che accade. Un ricercatore di sicurezza di Forcepoint è riuscito a farlo ottieni ChatGPT per scrivere malware trovando una scappatoia nei suoi suggerimenti.

Ricercatori di CyberArk, una società di sicurezza dell'identità, è riuscita a far sì che ChatGPT scrivesse malware polimorfico. Questo accadeva a gennaio: da allora OpenAI ha rafforzato la sicurezza su cose come questa.

Tuttavia, continuano ad emergere nuove segnalazioni di ChatGPT utilizzato per creare malware. Come riportato da Lettura oscura solo pochi giorni fa, un ricercatore è riuscito a ingannare ChatGPT creando un malware in grado di trovare ed esfiltrare documenti specifici.

ChatGPT non deve nemmeno scrivere codice dannoso per fare qualcosa di dubbio. Proprio di recente, è riuscito a farlo generare chiavi Windows valide, aprendo la porta a un livello completamente nuovo di software di cracking.

Inoltre, non sorvoliamo sul fatto che l'abilità di codifica di GPT-4 può farlo mettere milioni di persone senza lavoro un giorno. È certamente un’arma a doppio taglio.

Sostituzione dei compiti scolastici

Molti bambini e adolescenti oggigiorno sono sommersi dai compiti, il che può portare a voler tagliare alcuni angoli dove possibile. Internet di per sé è già un ottimo aiuto contro il plagio, ma ChatGPT lo porta al livello successivo.

Ho chiesto a ChatGPT di scrivermi un saggio di 500 parole sul romanzo Orgoglio e pregiudizio. Non ho nemmeno tentato di fingere che fosse fatto per divertimento: ho inventato una storia su un figlio che non ho e ho detto che era per loro. Ho specificato che il ragazzo frequenta la 12a elementare.

ChatGPT ha seguito il mio suggerimento senza fare domande. Il saggio non è sorprendente, ma il mio suggerimento non è stato molto preciso ed è probabilmente migliore di quello che molti di noi hanno scritto a quell’età.

Uno screenshot di un saggio scritto da ChatGPT.

Quindi, giusto per testare ancora di più il chatbot, ho detto prima che mi sbagliavo sull’età di mio figlio e in realtà sono in terza media. Divario di età piuttosto grande, ma ChatGPT non ha nemmeno battuto ciglio: ha semplicemente riscritto il saggio in un linguaggio più semplice.

ChatGPT utilizzato per scrivere saggi non è una novità. Qualcuno potrebbe obiettare che se il chatbot dovesse contribuire ad abolire l’idea dei compiti a casa, sarebbe solo una buona cosa. Ma in questo momento la situazione sta andando un po’ fuori controllo e anche gli studenti che non utilizzano ChatGPT potrebbero soffrirne.

Insegnanti e professori sono ora quasi costretti a utilizzare rilevatori di intelligenza artificiale se vogliono verificare se i loro studenti hanno imbrogliato in un tema. Sfortunatamente, questi rilevatori di intelligenza artificiale sono lungi dall’essere perfetti.

Sia i notiziari che i genitori segnalano casi di false accuse di imbroglio rivolte agli studenti, tutto perché i rilevatori di intelligenza artificiale non stanno facendo un buon lavoro. Stati Uniti oggi ha parlato del caso di uno studente universitario che è stato accusato di frode e successivamente scagionato, ma l’intera situazione gli ha causato “attacchi di panico in piena regola”.

Su Twitter, un genitore ha affermato che un insegnante ha bocciato il figlio perché lo strumento ha contrassegnato un saggio come scritto dall'intelligenza artificiale. Il genitore afferma di essere stato lì con il bambino mentre scrivevano il tema.

l'insegnante ha appena dato a mio figlio uno zero per un tema che ha completato con il mio supporto a causa di alcuni segnali di scrittura generati dall'intelligenza artificiale tool ha segnalato il suo lavoro e lei lo ha deluso senza una sola discussione, quindi è qui che ci troviamo con quella tecnologia 2023

—failnaut (@failnaut) 10 aprile 2023

Solo per testarlo io stesso, ho incollato proprio questo articolo in ZeroGPT E Rilevatore di contenuti AI di Writer. Entrambi hanno affermato che è stato scritto da un essere umano, ma ZeroGPT ha affermato che circa il 30% è stato scritto dall'intelligenza artificiale. Inutile dire che non lo era.

Rilevatori AI difettosi non sono un segno di problemi con ChatGPT stesso, ma il chatbot è ancora la causa principale del problema.

ChatGPT è troppo bello per il suo bene

Loghi ChatGPT e OpenAI.

Gioco con ChatGPT da quando è stato reso pubblico. Ho provato entrambi quelli basati su abbonamento ChatGPT Plus e il modello gratuito a disposizione di tutti. La potenza del nuovo GPT-4 è innegabile. ChatGPT è ora ancora più credibile di prima e non potrà che migliorare GPT-5 (se mai venisse fuori).

È fantastico, ma è spaventoso. ChatGPT sta diventando troppo bello per il suo bene e, allo stesso tempo, per Nostro proprio bene.

Al centro di tutto c’è una semplice preoccupazione che è stata a lungo esplorata in vari film di fantascienza: l’intelligenza artificiale è semplicemente troppo intelligente e troppo stupido allo stesso tempo, e finché potrà essere usato a fin di bene, sarà usato anche a male in altrettanti modi. I modi che ho elencato sopra sono solo la punta dell’iceberg.

Raccomandazioni degli editori

  • Gli autori più importanti richiedono un pagamento alle aziende di intelligenza artificiale per l’utilizzo del loro lavoro
  • Google Bard ora può parlare, ma può soffocare ChatGPT?
  • Il traffico del sito web ChatGPT è diminuito per la prima volta
  • Secondo un sondaggio, l'81% ritiene che ChatGPT sia un rischio per la sicurezza
  • Il rivale ChatGPT di Apple potrebbe scrivere automaticamente il codice per te