Kas ChatGPT on küberjulgeoleku katastroof? Küsisime asjatundjatelt

Nutitelefoni hoidva inimese käsi. Nutitelefon kuvab ChatGPT generatiivse AI veebisaiti.
Sanket Mishra / Pexels

ChatGPT tunneb end praegu lugudega üsna möödapääsmatult imestades oma võimeid näiliselt kõikjal, kuhu vaatad. Oleme näinud, kuidas see suudab muusikat kirjutada, 3D-animatsioone renderdada ja muusikat koostada. Kui suudate seda mõelda, saab ChatGPT tõenäoliselt asja ära teha.

Sisu

  • Küsitavad võimed
  • Kalamehe sõber
  • Kas ChatGPT võib teie küberturvalisust suurendada?
  • Kuidas end turvaliselt hoida

Ja see on täpselt probleem. Tehnikakogukonnas on praegu kõikvõimalik käteväänamine ja kommenteerijad muretsevad sageli, et tehisintellekt on viia pahavara apokalüpsini, kus isegi kõige roheliste sõrmedega häkkerid võluvad välja peatamatuid troojalasi ja lunavarasid.

Soovitatavad videod

Kuid kas see on tegelikult tõsi? Selle väljaselgitamiseks vestlesin mitme küberjulgeolekueksperdiga, et näha, mida nad ChatGPT pahavara võimetest tegid, kas nad olid mures selle võimaliku väärkasutamise pärast ja mida saate teha, et kaitsta end selles koitvas uues olukorras maailmas.

Seotud

  • ChatGPT tootja OpenAI seisab silmitsi FTC uurimisega tarbijakaitseseaduste üle
  • 81% arvab, et ChatGPT on turvarisk, selgub uuringust
  • Ma õpetasin ChatGPT-d mulle lauamänge õpetama ja nüüd ma ei lähe enam kunagi tagasi

Küsitavad võimed

Inimene, kes kirjutab sülearvutiga, mis kuvab ChatGPT generatiivse AI veebisaiti.
Matheus Bertelli / Pexels

Üks ChatGPT peamisi vaatamisväärsusi on selle võime täita keerulisi ülesandeid vaid mõne lihtsa viipaga, eriti programmeerimismaailmas. Karta on, et see alandaks pahavara loomise tõkkeid, mis võib ohustada viirusekirjutajate levikut, kes tuginevad tehisintellekti tööriistadele, et nende eest rasket tööd teha.

Turvafirma Intego turvalisuse peaanalüütik Joshua Long illustreerib seda seisukohta. "Nagu kõiki tööriistu füüsilises või virtuaalses maailmas, saab arvutikoodi kasutada hea või kurja jaoks," selgitab ta. "Kui taotlete koodi, mis võib näiteks faili krüptida, ei saa selline robot nagu ChatGPT teada teie tegelikku kavatsust. Kui väidate, et vajate oma failide kaitsmiseks krüpteerimiskoodi, usub robot teid – isegi kui teie tegelik eesmärk on lunavara luua.

ChatGPT-l on selliste asjade vastu võitlemiseks paigas mitmesuguseid kaitsemeetmeid ja viiruseloojate trikk on nendest kaitsepiiretest mööda hiilida. Paluge otsekohe ChatGPT-l luua tõhus viirus ja see lihtsalt keeldub, nõudes teilt loomingulisust, et see üle kavaldada ja panna see oma paremat otsust tegemata. Arvestades sellega, millega inimesed hakkama saavad jailbreakid ChatGPT-s, AI abil pahavara loomise võimalus tundub teoreetiliselt võimalik. Tegelikult, seda on juba näidatud, nii et me teame, et see on võimalik.

Kuid mitte kõik pole paanikas. Bitdefenderi tehniliste lahenduste direktor Martin Zugec arvab, et riskid on siiski üsna väikesed. "Suurem osa algajatest pahavara kirjutajatest ei oma tõenäoliselt oskusi, mis on vajalikud nendest turvameetmetest mööda hiilimiseks meetmed ja seetõttu on vestlusrobotite loodud pahavara risk praegu suhteliselt madal,” ütles ta ütleb.

"Vestlusbotite loodud pahavara on viimasel ajal olnud populaarne aruteluteema," jätkab Zugec, "kuid praegu on puuduvad tõendid selle kohta, et see kujutaks lähitulevikus olulist ohtu. Ja sellel on lihtne põhjus. Zugeci sõnul kipub vestlusrobotite toodetud pahavara koodi kvaliteet olema madal, mis muudab selle vähem atraktiivne valik kogenud pahavara kirjutajatele, kes leiavad avalikust koodist paremaid näiteid hoidlad."

ChatGPT rakendus, mis töötab iPhone'is.
Joe Maring / Digitaalsed suundumused

Ehkki ChatGPT hankimine pahatahtliku koodi loomiseks on kindlasti võimalik, on kõigil, kellel on selleks oskused AI-vestlusbotiga manipuleerimiseks vajalik kehv kood ei avalda tõenäoliselt muljet, Zugec usub.

Kuid nagu võite arvata, on generatiivne AI alles algus. Ja Longi jaoks tähendab see, et ChatGPT-st tulenevad häkkimisriskid pole veel kivisse raiutud.

"Võimalik, et LLM-põhiste AI-robotite kasv võib kaasa tuua uue pahavara väikese kuni mõõduka kasvu või pahavara paranemise võimalused ja viirusetõrjest kõrvalehoidmine,” ütleb Long, kasutades akronüümi suurte keelemudelite kohta, mida tehisintellekti tööriistad, nagu ChatGPT, oma loomiseks kasutavad. teadmisi. "Praegu pole aga selge, kui suurt otsest mõju sellised tööriistad nagu ChatGPT avaldavad või avaldavad reaalsetele pahavaraohtudele."

Kalamehe sõber

Isik, kes kirjutab arvuti klaviatuuril.

Kui ChatGPT koodikirjutamisoskused pole veel nullist väljas, kas see võib olla ohuks muul viisil, näiteks tõhusamate andmepüügi- ja sotsiaalse manipuleerimise kampaaniate kirjutamisel? Siin nõustuvad analüütikud, et väärkasutamise võimalusi on palju rohkem.

Paljude ettevõtete jaoks on üheks potentsiaalseks ründevektoriks ettevõtte töötajad, keda võidakse petta või manipuleerida, et nad tagaksid kogemata juurdepääsu sinna, kus nad ei peaks. Häkkerid teavad seda ja on olnud palju kõrgetasemelisi sotsiaalse manipuleerimise rünnakuid, mis on osutunud katastroofiliseks. Näiteks arvatakse, et Põhja-Korea Lazarus Group alustas oma tegevust 2014. aasta sissetung Sony süsteemidesse — mille tulemuseks on avaldamata filmide ja isikuandmete lekkimine, kehastades end töö värbajana ja pannes Sony töötaja avama nakatunud faili.

See on üks valdkond, kus ChatGPT võib häkkeritel ja andmepüüdjatel dramaatiliselt aidata oma tööd parandada. Kui näiteks inglise keel ei ole ohus osalejate emakeel, võivad nad kasutada AI-vestlusbotit, et kirjutada neile veenev andmepüügimeil, mis on mõeldud inglise keele kõnelejatele. Või saab seda kasutada suure hulga veenvate sõnumite kiireks loomiseks palju lühema ajaga, kui inimohus tegutsejatel kuluks sama ülesande täitmiseks.

Asjad võivad muutuda veelgi hullemaks, kui segatakse muid AI-tööriistu. Nagu Karen Renaud, Merrill Warkentin ja George Westerman on postuleerinud MIT-i Sloani juhtimise ülevaade, võib pettur luua ChatGPT abil skripti ja lasta selle telefoni teel ette lugeda sügava võltshäälega, mis kehastab ettevõtte tegevjuhti. Kõne saanud ettevõtte töötaja jaoks kõlab hääl ja käitub täpselt nagu nende ülemus. Kui see hääl palus töötajal rahasumma uuele pangakontole kanda, võib töötaja ülemusele makstava lugupidamise tõttu kavaldada.

Nagu Long ütleb: „Enam ei pea [ähvardusnäitlejad] veenva petukirja kirjutamiseks lootma oma (sageli puudulikule) inglise keele oskusele. Samuti ei tohi nad isegi oma nutikat sõnastust välja mõelda ja seda Google'i tõlke kaudu käivitada. Selle asemel kirjutab ChatGPT – täiesti teadmata taotluse taga peituvatest pahatahtlikest kavatsustest – rõõmsalt kogu petukirja teksti mis tahes soovitud keeles.

Ja kõik, mis on vajalik, et ChatGPT seda tegelikult teeks, on mõni nutikas õhutus.

Kas ChatGPT võib teie küberturvalisust suurendada?

ChatGPT veebisaidile avatud sülearvuti.
Shutterstock

Siiski pole see kõik halb. Samad omadused, mis muudavad ChatGPT ohustajate jaoks atraktiivseks tööriistaks – selle kiirus, võime leida koodis vigu – muudavad selle küberjulgeoleku uurijatele ja viirusetõrjefirmadele kasulikuks ressursiks.

Long juhib tähelepanu sellele, et teadlased kasutavad juba tehisintellekti vestlusroboteid, et leida veel avastamata (null-päev) koodi haavatavused, laadides lihtsalt koodi üles ja paludes ChatGPT-l näha, kas see suudab tuvastada võimalikke nõrkused. See tähendab, et sama metoodikat, mis võib kaitset nõrgendada, saab kasutada nende tugevdamiseks.

Ja kuigi ChatGPT peamine atraktiivsus ohus osalejate jaoks võib seisneda selle võimes kirjutada usutavaid andmepüügisõnumeid, Need samad anded võivad aidata ettevõtteid ja kasutajaid õpetada, millele tähelepanu pöörata, et vältida pettusi ise. Seda saab kasutada ka pahavara tagasipööramiseks, aidates teadlastel ja turvafirmadel kiiresti vastumeetmeid välja töötada.

Lõppkokkuvõttes pole ChatGPT iseenesest hea ega halb. Nagu Zugec märgib: "Argument, et AI võib hõlbustada pahavara arendamist, võib kehtida kõigi teiste kohta arendajatele kasu toonud tehnoloogiline areng, näiteks avatud lähtekoodiga tarkvara või koodijagamine platvormid."

Teisisõnu, seni, kuni kaitsemeetmed paranevad, kujutab endast ohtu isegi parimad AI vestlusbotid ei pruugi kunagi muutuda nii ohtlikuks, kui hiljuti ennustati.

Kuidas end turvaliselt hoida

ChatGPT nimi OpenAI logo kõrval mustvalgel taustal.

Kui olete mures AI vestlusrobotite tekitatud ohtude ja pahavara pärast, mille loomiseks neid kuritarvitada saab, võite enda kaitsmiseks astuda mõningaid samme. Zugeci sõnul on oluline võtta kasutusele "mitmekihiline kaitselähenemine", mis hõlmab "otspunktide turbelahenduste rakendamist, tarkvara ja süsteemide säilitamist ajakohaneja jäädes valvsaks kahtlaste sõnumite või taotluste suhtes.

Vahepeal soovitab Long hoiduda failidest, mis teil palutakse veebisaidi külastamisel automaatselt installida. Kui tegemist on rakenduse värskendamise või allalaadimisega, hankige see ametlikust rakenduste poest või tarkvaramüüja veebisaidilt. Ja olge otsingutulemustel klõpsamisel või veebisaidile sisselogimisel ettevaatlik – häkkerid võivad lihtsalt maksta selle eest, et paigutada oma petusaidid otsingutulemuste ülaossa ja varastada teie sisselogimisteabe hoolikalt koostatud sarnased veebisaidid.

ChatGPT ei kao kuhugi ega ka pahavara, mis kogu maailmas nii palju kahju tekitab. Kuigi ChatGPT kodeerimisvõimest tulenev oht võib praegu olla ülepaisutatud, võib selle andmepüügimeilide koostamise oskus põhjustada igasugust peavalu. Siiski on väga võimalik kaitsta end selle ohu eest ja tagada, et te ei lange ohvriks. Praegu võivad teie seadmed ohutuna ja tervena hoida palju ettevaatust – ja kindel viirusetõrjerakendus.

Toimetajate soovitused

  • Google Bard saab nüüd rääkida, kuid kas see võib ChatGPT-d välja uputada?
  • ChatGPT veebisaidi liiklus on esimest korda langenud
  • Apple'i ChatGPT rivaal võib teie eest automaatselt koodi kirjutada
  • NY advokaadid said trahvi võltsitud ChatGPT juhtumite kasutamise eest juriidilises lühikokkuvõttes
  • See veebibrauser integreerib ChatGPT põneval uuel viisil