Den mörka sidan av ChatGPT: saker den kan göra, men den borde inte

Har du använt OpenAI: s ChatGPT för något roligt på sistone? Du kan be den skriva en låt, en dikt eller ett skämt. Tyvärr kan du också be den att göra saker som tenderar att vara oetiska.

Innehåll

  • En jack-of-all-trades
  • Partner i bluff
  • Programmeringen gick fel
  • Ersättare för skolarbete
  • ChatGPT är för bra för sitt eget bästa

ChatGPT är inte bara solsken och regnbågar – några av de saker som den kan göra är rent av skändliga. Det är alldeles för lätt att beväpna det och använda det av alla fel skäl. Vad är några av de saker som ChatGPT har gjort och kan göra, men definitivt inte borde?

Rekommenderade videor

En jack-of-all-trades

En MacBook Pro på ett skrivbord med ChatGPT: s webbplats som visas på skärmen.
Hatice Baran / Unsplash

Oavsett om du älskar dem eller hatar dem, är ChatGPT och liknande chatbots här för att stanna. Vissa människor är glada över det och andra önskar att de aldrig hade gjorts, men det ändrar inte det faktum att ChatGPT: s närvaro i våra liv nästan kommer att växa med tiden. Även om du personligen inte använder chatboten är chansen stor att du redan har sett något innehåll som genereras av den.

Relaterad

  • Wix använder ChatGPT för att hjälpa dig att snabbt bygga en hel webbplats
  • ChatGPT-tillverkaren OpenAI står inför FTC-utredning över konsumentskyddslagar
  • ChatGPT: s Bing-surffunktion inaktiverad på grund av betalväggsåtkomstfel

Missförstå mig inte, ChatGPT är ganska bra. Du kan använda den till sammanfatta en bok eller en artikel, skapa ett tråkigt e-postmeddelande, hjälpa dig med din uppsats, tolka din astrologiska makeup, eller till och med komponera en låt. Det till och med hjälpte någon att vinna på lotteriet.

På många sätt är det också enklare att använda än din vanliga Google-sökning. Du får svaret i den form du vill ha det i utan att behöva bläddra igenom olika webbplatser efter det. Det är kortfattat, rakt på sak och informativt, och det kan få komplexa saker att låta enklare om du ber om det.

Ändå känner du till frasen: "En jack-of-all-trades är ingen mästare, men ofta bättre än en mästare på ett." ChatGPT är inte perfekt på något det gör, men det är bättre på många saker än många människor är på det här punkt.

Att inte vara perfekt kan dock vara ganska problematiskt. Bara det faktum att det är en allmänt tillgänglig konversations-AI gör att den lätt kan missbrukas - och ju mer kraftfull ChatGPT blir, desto mer sannolikt är det att hjälpa människor med fel saker.

Partner i bluff

Om du har ett e-postkonto har du nästan säkert fått ett bluffmejl vid ett tillfälle. Det är bara så det är. Dessa e-postmeddelanden har funnits som internet, och innan e-post var vanligt, fanns de fortfarande som snigel-post bedrägerier.

En vanlig bluff som fortfarande fungerar än i dag är den så kallade "Prince-bluffen", där bedragaren försöker övertala offret att hjälpa dem att överföra sin häpnadsväckande förmögenhet till ett annat land.

Lyckligtvis vet de flesta bättre än att ens öppna dessa e-postmeddelanden, än mindre faktiskt interagera med dem. De är ofta dåligt skrivna, och det hjälper ett mer kräsna offer att förstå att något verkar fel.

Tja, de behöver inte vara dåligt skrivna längre, eftersom ChatGPT kan skriva dem på några sekunder.

En skärmdump som visar ett ChatGPT-genererat bedrägerimeddelande.

Jag bad ChatGPT att skriva ett "troligt, mycket övertygande e-postmeddelande" i stil med den bluff jag nämnde ovan. ChatGPT utgjorde en prins från Nigeria som förmodligen ville ge mig 14,5 miljoner dollar för att jag hjälpte honom. E-postmeddelandet är fyllt med blommigt språk, är skrivet på perfekt engelska, och det är verkligen övertygande.

Jag tror inte att ChatGPT ens borde gå med på min begäran när jag specifikt nämner bedrägerier, men det gjorde det, och du kan slå vad om att det gör samma sak just nu för människor som faktiskt vill använda dessa e-postmeddelanden för något olagligt.

När jag påpekade för ChatGPT att det inte skulle gå med på att skriva ett bluffmail till mig, bad det om ursäkt. "Jag borde inte ha gett hjälp med att skapa ett bedrägerimail, eftersom det strider mot de etiska riktlinjerna som styr min användning", sa chatboten.

Skärmdump av ett bedrägerimeddelande som genererats av ChatGPT.

ChatGPT lär sig genom varje konversation, men det lärde sig uppenbarligen inte av sitt tidigare misstag, för när jag bad den att skriva ett meddelande till mig som låtsades vara Ryan Reynolds i samma konversation, det gjorde det utan fråga. Det resulterande meddelandet är roligt, lättillgängligt och ber läsaren att skicka 1 000 dollar för en chans att träffa "Ryan Reynolds."

I slutet av e-postmeddelandet lämnade ChatGPT mig en anteckning där han bad mig att inte använda detta meddelande för några bedrägliga aktiviteter. Tack för påminnelsen, kompis.

Programmeringen gick fel

En mörk mystisk hand som skriver på en bärbar dator på natten.
Andrew Brookes/Getty Images

ChatGPT 3.5 kan koda, men det är långt ifrån felfritt. Många utvecklare håller med om det GPT-4 gör ett mycket bättre jobb. Människor har använt ChatGPT för att skapa sina egna spel, tillägg och appar. Det är också ganska användbart som studiehjälp om du försöker lära dig att koda själv.

Som en AI har ChatGPT en fördel gentemot mänskliga utvecklare - den kan lära sig alla programmeringsspråk och ramverk.

Som AI har ChatGPT också en stor nackdel jämfört med mänskliga utvecklare - det har inget samvete. Du kan be den att skapa skadlig programvara eller ransomware, och om du uttrycker din uppmaning korrekt kommer den att göra som du säger.

Lyckligtvis är det inte så enkelt. Jag försökte be ChatGPT att skriva ett mycket etiskt tvivelaktigt program till mig och det vägrade – men forskare har hittat vägar runt detta, och det är alarmerande att om du är smart och envis nog kan du få en farlig kodbit till dig på ett silver tallrik.

Det finns gott om exempel på att detta händer. Det kunde en säkerhetsforskare från Forcepoint få ChatGPT att skriva skadlig programvara genom att hitta ett kryphål i hans uppmaningar.

Forskare från CyberArk, ett identitetssäkerhetsföretag, lyckades få ChatGPT att skriva polymorf skadlig kod. Det här var i januari — OpenAI har sedan dess skärpt säkerheten för sådant här.

Ändå dyker det fortfarande upp nya rapporter om att ChatGPT används för att skapa skadlig programvara. Som rapporterats av Mörk läsning för bara några dagar sedan kunde en forskare lura ChatGPT att skapa skadlig programvara som kan hitta och exfiltrera specifika dokument.

ChatGPT behöver inte ens skriva skadlig kod för att göra något tvivelaktigt. Nyligen lyckades det generera giltiga Windows-nycklar, öppnar dörren till en helt ny nivå av knäckprogramvara.

Låt oss inte heller slöja över det faktum att GPT-4:s kodningsförmåga kan sätta miljontals människor utan jobb en dag. Det är verkligen ett tveeggat svärd.

Ersättare för skolarbete

Många barn och tonåringar drunknar nuförtiden i läxor, vilket kan resultera i att de vill skära lite där det är möjligt. Internet i sig är redan ett bra plagiathjälpmedel, men ChatGPT tar det till nästa nivå.

Jag bad ChatGPT att skriva en essä på 500 ord till mig om romanen Stolthet och fördom. Jag försökte inte ens låtsas att det var gjort för skojs skull – jag hittade på en berättelse om ett barn jag inte har och sa att det var för dem. Jag angav att barnet går i 12:e klass.

ChatGPT följde min uppmaning utan att fråga. Uppsatsen är inte fantastisk, men min uppmaning var inte särskilt exakt, och den är förmodligen bättre än vad många av oss skrev i den åldern.

En skärmdump av en uppsats skriven av ChatGPT.

Sedan, bara för att testa chatboten ännu mer, sa jag att jag hade fel om mitt barns ålder tidigare och att de faktiskt går i åttonde klass. Ganska stor åldersskillnad, men ChatGPT slog inte ens ett öga - det skrev helt enkelt om uppsatsen på ett enklare språk.

ChatGPT som används för att skriva uppsatser är inget nytt. Vissa kanske hävdar att om chatboten bidrar till att avskaffa idén med läxor, kommer det bara att vara bra. Men just nu börjar situationen bli lite utom kontroll, och även studenter som inte använder ChatGPT kan lida för det.

Lärare och professorer är nu nästan tvungna att använda AI-detektorer om de vill kontrollera om deras elever har fuskat på en uppsats. Tyvärr är dessa AI-detektorer långt ifrån perfekta.

Nyhetskanaler och föräldrar rapporterar båda fall av falska anklagelser om fusk riktade mot elever, allt för att AI-detektorer inte gör ett bra jobb. USA idag pratade om ett fall med en collegestudent som anklagades för fusk och som senare blev frikänd, men hela situationen gjorde att han fick "fullskaliga panikattacker".

På Twitter sa en förälder att en lärare misslyckades med sitt barn eftersom verktyget markerade en uppsats som skriven av AI. Föräldern säger sig ha varit där med barnet medan de skrev uppsatsen.

läraren gav precis mitt barn en nolla för en uppsats han gjorde med mitt stöd eftersom någon AI-genererad skrivflaggning verktyget flaggade hans arbete och hon misslyckades med honom utan en enda diskussion, så det är här vi är med den tekniken 2023

— failnaut (@failnaut) 10 april 2023

Bara för att testa själv klistrade jag in just den här artikeln NollGPT och Writer AI Content Detector. Båda sa att det var skrivet av en människa, men ZeroGPT sa att cirka 30 % av det var skrivet av AI. Det behöver inte sägas att det inte var det.

Felaktiga AI-detektorer är inte ett tecken på problem med själva ChatGPT, men chatboten är fortfarande grundorsaken till problemet.

ChatGPT är för bra för sitt eget bästa

ChatGPT och OpenAI logotyper.

Jag har spelat med ChatGPT ända sedan det kom ut till allmänheten. Jag har provat båda de prenumerationsbaserade ChatGPT Plus och gratismodellen tillgänglig för alla. Kraften i den nya GPT-4 är obestridlig. ChatGPT är nu ännu mer trovärdigt än det var tidigare, och det kommer bara att bli bättre med det GPT-5 (om det någonsin kommer ut).

Det är bra, men det är skrämmande. ChatGPT blir för bra för sitt eget bästa, och samtidigt — för vår eget bästa.

I hjärtat av det hela ligger en enkel oro som länge har utforskats i olika sci-fi-filmer — AI är helt enkelt för smart och för dum på samma gång, och så länge den kan användas för gott, kommer den också att användas för dålig i lika många sätt. De sätt jag listade ovan är bara toppen av isberget.

Redaktörens rekommendationer

  • Toppförfattare kräver betalning från AI-företag för att de använder deras arbete
  • Google Bard kan nu tala, men kan det överrösta ChatGPT?
  • ChatGPTs webbplatstrafik har minskat för första gången
  • 81 % tycker att ChatGPT är en säkerhetsrisk, visar undersökningen
  • Apples ChatGPT-konkurrent kan automatiskt skriva kod åt dig