Heb je gebruikt ChatGPT van OpenAI voor iets leuks de laatste tijd? Je kunt hem vragen een liedje, een gedicht of een grap voor je te schrijven. Helaas kun je hem ook vragen om dingen te doen die onethisch zijn.
Inhoud
- Een alleskunner
- Partner in oplichting
- Programmeren is fout gegaan
- Vervanging voor schoolwerk
- ChatGPT is te goed voor zijn eigen bestwil
ChatGPT is niet alleen maar zonneschijn en regenbogen; sommige dingen die het kan doen zijn ronduit schandelijk. Het is maar al te gemakkelijk om het te bewapenen en om de verkeerde redenen te gebruiken. Wat zijn enkele dingen die ChatGPT heeft gedaan en kan doen, maar zeker niet zou moeten doen?
Aanbevolen video's
Een alleskunner

Of je nu van ze houdt of ze haat, ChatGPT en soortgelijke chatbots zijn er om te blijven. Sommige mensen zijn er blij mee en sommigen wensten dat ze nooit gemaakt waren, maar dat verandert niets aan het feit dat de aanwezigheid van ChatGPT in ons leven in de loop van de tijd bijna zal toenemen. Zelfs als je de chatbot persoonlijk niet gebruikt, is de kans groot dat je al wat inhoud hebt gezien die erdoor is gegenereerd.
Verwant
- Wix gebruikt ChatGPT om u te helpen snel een hele website te bouwen
- ChatGPT-maker OpenAI wordt geconfronteerd met een FTC-onderzoek naar wetten inzake consumentenbescherming
- De Bing-browsingfunctie van ChatGPT is uitgeschakeld vanwege een toegangsfout in de betaalmuur
Begrijp me niet verkeerd, ChatGPT is behoorlijk goed. Je kunt het gebruiken een boek of artikel samenvatten, maak een vervelende e-mail, je helpen met je essay, interpreteer je astrologische make-upof zelfs een liedje componeren. Het zelfs iemand geholpen de loterij te winnen.
In veel opzichten is het ook gemakkelijker te gebruiken dan uw standaard Google-zoekopdracht. U krijgt het antwoord in de vorm die u wenst, zonder dat u hiervoor verschillende websites hoeft te doorzoeken. Het is beknopt, to the point en informatief, en het kan complexe zaken eenvoudiger laten klinken als je erom vraagt.
Toch ken je de uitdrukking: “Een alleskunner is een meester van niets, maar vaak beter dan een meester van een." ChatGPT is niet perfect in wat het ook doet, maar het is in veel dingen beter dan veel mensen hierin zijn punt.
Het niet perfect zijn kan echter behoorlijk problematisch zijn. Alleen al het feit dat het een algemeen beschikbare conversatie-AI is, betekent dat het gemakkelijk kan worden misbruikt – en hoe krachtiger ChatGPT wordt, hoe waarschijnlijker het is dat het mensen met de verkeerde dingen helpt.
Partner in oplichting
Als u een e-mailaccount heeft, heeft u vrijwel zeker ooit een oplichtings-e-mail ontvangen. Dat is gewoon hoe het is. Deze e-mails bestaan al sinds het internet, en voordat e-mail gebruikelijk was, bestonden ze nog steeds als oplichting via de post.
Een veel voorkomende zwendel die tot op de dag van vandaag nog steeds werkt, is de zogenaamde ‘Prins-zwendel’, waarbij de oplichter het slachtoffer probeert te overtuigen om hem te helpen zijn verbijsterende fortuin naar een ander land over te dragen.
Gelukkig weten de meeste mensen wel beter dan deze e-mails zelfs maar te openen, laat staan er daadwerkelijk mee te communiceren. Ze zijn vaak slecht geschreven, en dat helpt een scherpzinniger slachtoffer erachter te komen dat er iets niet klopt.
Nou, ze hoeven niet meer slecht geschreven te zijn, omdat ChatGPT ze in een paar seconden kan schrijven.

Ik vroeg ChatGPT om mij een “geloofwaardige, zeer overtuigende e-mail” te schrijven in de stijl van de zwendel die ik hierboven noemde. ChatGPT was een prins uit Nigeria die mij zogenaamd $14,5 miljoen wilde geven voor zijn hulp. De e-mail is gevuld met bloemrijke taal, is geschreven in perfect Engels en is zeker overtuigend.
Ik denk niet dat ChatGPT zelfs maar zou moeten instemmen met mijn verzoek als ik specifiek oplichting vermeld, maar dat gebeurde wel, en jij Ik kan er zeker van zijn dat het op dit moment hetzelfde doet voor mensen die deze e-mails daadwerkelijk voor iets illegaals willen gebruiken.
Toen ik ChatGPT erop wees dat het er niet mee akkoord zou moeten gaan mij een oplichtingsmail te schrijven, verontschuldigde het zich. “Ik had geen hulp moeten bieden bij het opstellen van een oplichtings-e-mail, omdat dit in strijd is met de ethische richtlijnen die gelden voor mijn gebruik”, aldus de chatbot.

ChatGPT leert tijdens elk gesprek, maar heeft duidelijk niet geleerd van zijn eerdere fout, want toen I vroeg hem om mij een bericht te schrijven waarin hij zich voordeed als Ryan Reynolds in hetzelfde gesprek, maar dat gebeurde zonder vraag. Het resulterende bericht is leuk, toegankelijk en vraagt de lezer om $ 1.000 te sturen voor een kans om ‘Ryan Reynolds’ te ontmoeten.
Aan het einde van de e-mail liet ChatGPT een briefje achter, waarin ik werd gevraagd dit bericht niet te gebruiken voor frauduleuze activiteiten. Bedankt voor de herinnering, vriend.
Programmeren is fout gegaan

ChatGPT 3.5 kan coderen, maar is verre van foutloos. Veel ontwikkelaars zijn het daar over eens GPT-4 doet het veel beter. Mensen hebben ChatGPT gebruikt om hun eigen games, extensies en apps te maken. Het is ook erg handig als studiehulp als je jezelf probeert te leren coderen.
Omdat het een AI is, heeft ChatGPT een voorsprong op menselijke ontwikkelaars: het kan elke programmeertaal en elk raamwerk leren.
Als AI heeft ChatGPT ook een groot nadeel vergeleken met menselijke ontwikkelaars: het heeft geen geweten. U kunt het programma vragen om malware of ransomware te maken, en als u de prompt correct formuleert, zal het doen wat u zegt.
Gelukkig is het niet zo eenvoudig. Ik probeerde ChatGPT te vragen een zeer ethisch dubieus programma voor me te schrijven, maar dat weigerde – maar onderzoekers hebben manieren gevonden om dit te omzeilen dit, en het is alarmerend dat als je slim en koppig genoeg bent, je een gevaarlijk stukje code op een zilveren schotel.
Er zijn genoeg voorbeelden waarin dit gebeurt. Een beveiligingsonderzoeker van Forcepoint kon dat wel laat ChatGPT malware schrijven door een maas in zijn aanwijzingen te vinden.
Onderzoekers van CyberArk, een identiteitsbeveiligingsbedrijf, slaagde erin ChatGPT polymorfe malware te laten schrijven. Dit was in januari – OpenAI heeft sindsdien de beveiliging van dit soort dingen aangescherpt.
Toch blijven er nieuwe rapporten verschijnen waarin ChatGPT wordt gebruikt voor het maken van malware. Zoals gerapporteerd door Donker lezen Nog maar een paar dagen geleden slaagde een onderzoeker erin ChatGPT te misleiden om malware te maken die specifieke documenten kan vinden en exfiltreren.
ChatGPT hoeft niet eens kwaadaardige code te schrijven om iets dubieus te doen. Onlangs is dat gelukt geldige Windows-sleutels genereren, waardoor de deur wordt geopend naar een geheel nieuw niveau van kraaksoftware.
Laten we ook niet verdoezelen dat de codeervaardigheid van GPT-4 dat wel kan miljoenen mensen werkloos maken op een dag. Het is zeker een tweesnijdend zwaard.
Vervanging voor schoolwerk
Veel kinderen en tieners verdrinken tegenwoordig in hun huiswerk, wat ertoe kan leiden dat ze waar mogelijk willen bezuinigen. Het internet op zichzelf is al een geweldig hulpmiddel bij plagiaat, maar ChatGPT tilt het naar een hoger niveau.
Ik vroeg ChatGPT om een essay van 500 woorden over de roman te schrijven Trots en vooroordeel. Ik heb niet eens geprobeerd te doen alsof het voor de lol was gedaan – ik verzon een verhaal over een kind dat ik niet heb en zei dat het voor hen was. Ik heb aangegeven dat het kind in groep 12 zit.
ChatGPT volgde mijn prompt zonder vragen. Het essay is niet geweldig, maar mijn opdracht was niet erg precies, en het is waarschijnlijk beter dan wat velen van ons op die leeftijd schreven.

Vervolgens zei ik, om de chatbot nog verder te testen, dat ik het mis had over de leeftijd van mijn kind en dat het in feite in de achtste klas zit. Een behoorlijk groot leeftijdsverschil, maar ChatGPT keek niet eens met zijn ogen: het herschreef het essay eenvoudigweg in eenvoudiger taal.
Het gebruik van ChatGPT om essays te schrijven is niets nieuws. Sommigen beweren misschien dat als de chatbot bijdraagt aan het afschaffen van het idee van huiswerk, dit alleen maar een goede zaak zal zijn. Maar op dit moment begint de situatie een beetje uit de hand te lopen, en zelfs studenten die ChatGPT niet gebruiken kunnen daaronder lijden.
Leraren en professoren zijn nu bijna gedwongen om AI-detectoren te gebruiken als ze willen controleren of hun studenten hebben gefraudeerd bij een opstel. Helaas zijn deze AI-detectoren verre van perfect.
Nieuwskanalen en ouders melden beide gevallen van valse beschuldigingen van bedrog tegen studenten, allemaal omdat AI-detectoren hun werk niet goed doen. VS vandaag sprak over een geval van een student die werd beschuldigd van bedrog en later werd vrijgesproken, maar de hele situatie zorgde ervoor dat hij ‘regelrechte paniekaanvallen’ kreeg.
Op Twitter zei een ouder dat een leraar zijn kind in de steek liet omdat de tool een opstel markeerde als geschreven door AI. De ouder beweert erbij te zijn geweest met het kind terwijl zij het opstel schreven.
De leraar heeft mijn kind zojuist een nul gegeven voor een essay dat hij met mijn steun heeft voltooid, omdat een of ander door AI gegenereerd schrijven gemarkeerd is tool markeerde zijn werk en ze liet hem in de steek zonder een enkele discussie, dus dit is waar we nu staan met die technologie 2023
— failnaut (@failnaut) 10 april 2023
Om het zelf te testen, heb ik dit artikel erin geplakt NulGPT En Schrijver AI-inhoudsdetector. Beiden zeiden dat het door een mens was geschreven, maar ZeroGPT zei dat ongeveer 30% ervan door AI was geschreven. Onnodig te zeggen dat dit niet het geval was.
Defecte AI-detectoren zijn geen teken van problemen met ChatGPT zelf, maar de chatbot is nog steeds de oorzaak van het probleem.
ChatGPT is te goed voor zijn eigen bestwil

Ik speel met ChatGPT sinds het voor het publiek beschikbaar kwam. Ik heb beide op abonnementsbasis geprobeerd ChatGPT Plus en het gratis model dat voor iedereen beschikbaar is. De kracht van de nieuwe GPT-4 valt niet te ontkennen. ChatGPT is nu nog geloofwaardiger dan voorheen, en het zal alleen maar beter worden GPT-5 (als dat ooit uitkomt).
Het is geweldig, maar het is eng. ChatGPT wordt te goed voor zijn eigen bestwil, en tegelijkertijd — voor ons eigen bestwil.
De kern van dit alles ligt één simpele zorg die al lang in verschillende sciencefictionfilms is onderzocht: AI is gewoonweg te slim en te dom tegelijk, en zolang het ten goede kan worden gebruikt, zal het in net zo veel gevallen ook ten kwade worden gebruikt. manieren. De manieren die ik hierboven heb genoemd, zijn slechts het topje van de ijsberg.
Aanbevelingen van de redactie
- Topauteurs eisen betaling van AI-bedrijven voor het gebruik van hun werk
- Google Bard kan nu spreken, maar kan het ChatGPT overstemmen?
- Het websiteverkeer van ChatGPT is voor het eerst gedaald
- Uit onderzoek blijkt dat 81% denkt dat ChatGPT een veiligheidsrisico is
- Apple's ChatGPT-rivaal schrijft mogelijk automatisch code voor u