
ChatGPT šobrīd jūtas diezgan neizbēgami, ar stāstiem brīnās par tā spējām šķietami visur, kur paskatās. Mēs esam redzējuši, kā tas var rakstīt mūziku, renderēt 3D animācijas un komponēt mūziku. Ja varat to izdomāt, ChatGPT, iespējams, var to izdarīt.
Saturs
- Apšaubāmas spējas
- Zvejnieka draugs
- Vai ChatGPT var uzlabot jūsu kiberdrošību?
- Kā pasargāt sevi
Un tieši tā ir problēma. Pašlaik tehnoloģiju aprindās notiek visa veida roku griešana, un komentētāji bieži uztraucas, ka AI ir lai novestu pie ļaunprogrammatūras apokalipses, pat visžēlīgākajiem hakeriem uzburot neapturamus Trojas zirgus un izspiedējvīrusus.
Ieteiktie videoklipi
Bet vai tā tiešām ir taisnība? Lai to noskaidrotu, es runāju ar vairākiem kiberdrošības ekspertiem, lai noskaidrotu, ko viņi ieguva no ChatGPT ļaunprātīgās programmatūras iespējām. vai viņi bija noraizējušies par tā ļaunprātīgas izmantošanas iespējamību un ko jūs varat darīt, lai pasargātu sevi šajā uzaustošajā jaunajā situācijā pasaulē.
Saistīts
- ChatGPT veidotājs OpenAI saskaras ar FTC izmeklēšanu par patērētāju aizsardzības likumiem
- 81% uzskata, ka ChatGPT ir drošības risks, liecina aptauja
- Es iemācīju ChatGPT mācīt man galda spēles, un tagad es vairs neatgriezīšos
Apšaubāmas spējas

Viena no galvenajām ChatGPT atrakcijām ir tā spēja veikt sarežģītus uzdevumus tikai ar dažiem vienkāršiem norādījumiem, īpaši programmēšanas pasaulē. Pastāv bažas, ka tas pazeminātu šķēršļus ļaunprogrammatūras izveidei, potenciāli riskējot ar vīrusu rakstītāju savairošanos, kuri paļaujas uz mākslīgā intelekta rīkiem, lai viņu vietā veiktu smago darbu.
Džošua Longs, drošības firmas Intego galvenais drošības analītiķis, ilustrē šo punktu. "Tāpat kā jebkuru rīku fiziskajā vai virtuālajā pasaulē, datora kodu var izmantot labam vai ļaunam," viņš skaidro. “Ja pieprasāt kodu, kas var šifrēt failu, piemēram, tāds robots kā ChatGPT nevar zināt jūsu patieso nolūku. Ja jūs apgalvojat, ka jums ir nepieciešams šifrēšanas kods, lai aizsargātu savus failus, robots jums ticēs, pat ja jūsu patiesais mērķis ir izveidot izspiedējvīrusu.
ChatGPT ir ieviesti dažādi aizsardzības līdzekļi, lai cīnītos pret šāda veida lietām, un vīrusu radītāju viltība ir apiet šīs aizsargmargas. Tiesi palūdziet ChatGPT izveidot efektīvu vīrusu, un tas vienkārši atteiksies, pieprasot jums būt radošam, lai to pārspētu un liktu tai darīt jūsu solījumu pret savu labāku spriedumu. Ņemot vērā to, ko cilvēki spēj darīt jailbreaks pakalpojumā ChatGPT, teorētiski šķiet iespējama ļaunprātīgas programmatūras izveide, izmantojot AI. Patiesībā, tas jau ir pierādīts, tāpēc mēs zinām, ka tas ir iespējams.
Bet ne visi ir panikā. Martins Zugecs, Bitdefender tehnisko risinājumu direktors, uzskata, ka riski joprojām ir diezgan mazi. "Lielākajai daļai iesācēju ļaunprātīgas programmatūras autoru, visticamāk, nav prasmes, kas nepieciešamas, lai apietu šo drošību pasākumus, un tāpēc čatbotu radītās ļaunprogrammatūras radītais risks šobrīd joprojām ir salīdzinoši zems,” viņš saka.
"Chatbot radītā ļaunprogrammatūra pēdējā laikā ir bijusi populāra diskusiju tēma," turpina Zugecs, "taču pašlaik ir nav pierādījumu, kas liecinātu, ka tas tuvākajā nākotnē radītu nozīmīgus draudus. Un tam ir vienkāršs iemesls. Pēc Zugeca teiktā, “čatbotu radītā ļaunprogrammatūras koda kvalitāte mēdz būt zema, padarot to mazāk pievilcīga iespēja pieredzējušiem ļaunprātīgas programmatūras autoriem, kuri var atrast labākus piemērus publiskajā kodā krātuves.”

Tātad, lai gan ChatGPT izmantošana ļaunprātīga koda izveidei noteikti ir iespējama, ikvienam, kam ir šādas prasmes Zugec, kas nepieciešams, lai manipulētu ar AI tērzēšanas robotu, visticamāk, nebūs pārsteigts par slikto kodu, ko tas rada uzskata.
Bet, kā jūs varētu nojaust, ģeneratīvais AI ir tikai sākums. Un Longam tas nozīmē, ka ChatGPT radītie uzlaušanas riski vēl nav iecirsti akmenī.
"Iespējams, ka uz LLM balstītu AI robotu pieaugums var izraisīt nelielu vai mērenu jaunas ļaunprātīgas programmatūras pieaugumu vai ļaunprātīgas programmatūras uzlabošanos. iespējas un pretvīrusu izvairīšanās,” saka Longs, izmantojot akronīmu lielajiem valodu modeļiem, ko AI rīki, piemēram, ChatGPT izmanto, lai izveidotu savus zināšanas. "Tomēr šobrīd nav skaidrs, cik lielu tiešo ietekmi tādi rīki kā ChatGPT rada vai atstās uz reāliem ļaunprātīgas programmatūras draudiem."
Zvejnieka draugs

Ja ChatGPT koda rakstīšanas prasmes vēl nav līdz galam, vai tas var radīt draudus citos veidos, piemēram, rakstot efektīvākas pikšķerēšanas un sociālās inženierijas kampaņas? Šeit analītiķi piekrīt, ka ir daudz vairāk ļaunprātīgas izmantošanas iespēju.
Daudziem uzņēmumiem viens potenciālais uzbrukuma vektors ir uzņēmuma darbinieki, kurus var mānīt vai manipulēt, lai tie netīšām nodrošinātu piekļuvi tur, kur tiem nevajadzētu. Hakeri to zina, un ir bijuši daudzi augsta līmeņa sociālās inženierijas uzbrukumi, kas ir izrādījušies postoši. Piemēram, tiek uzskatīts, ka Ziemeļkorejas Lazarus grupa sāka savu darbību 2014. gada ielaušanās Sony sistēmās — kā rezultātā tiek nopludinātas neizdotas filmas un personas informācija, uzdodoties par vervētāju un liekot Sony darbiniekam atvērt inficētu failu.
Šī ir viena no jomām, kurā ChatGPT var ievērojami palīdzēt hakeriem un pikšķerētājiem uzlabot savu darbu. Ja, piemēram, angļu valoda nav apdraudējuma dalībnieku dzimtā valoda, viņi varētu izmantot AI tērzēšanas robotu, lai uzrakstītu pārliecinošu pikšķerēšanas e-pasta ziņojumu, kas paredzēts angļu valodā runājošajiem. Vai arī to varētu izmantot, lai ātri izveidotu lielu skaitu pārliecinošu ziņojumu daudz īsākā laikā, nekā tas būtu vajadzīgs cilvēku apdraudējuma dalībniekiem, lai veiktu to pašu uzdevumu.
Situācijas var pasliktināties vēl sliktāk, ja tiek iemesti citi AI rīki. Kā ir postulējuši Kārena Reno, Merila Varkentina un Džordžs Vestermens MIT Sloan vadības pārskats, krāpnieks var ģenerēt skriptu, izmantojot ChatGPT, un likt to nolasīt pa tālruni ar viltotu balsi, kas uzdodas par uzņēmuma izpilddirektoru. Uzņēmuma darbiniekam, kurš saņem zvanu, balss skanētu un darbotos tāpat kā viņu priekšnieks. Ja šī balss prasīja darbiniekam pārskaitīt naudas summu uz jaunu bankas kontu, darbinieks var piekrist viltībai, jo viņš maksā savam priekšniekam.
Longs saka: “Vairs [draudu dalībniekiem] nav jāpaļaujas uz savām (bieži vien nepilnīgajām) angļu valodas zināšanām, lai uzrakstītu pārliecinošu krāpniecisku e-pastu. Viņi arī nedrīkst pat izdomāt savu gudro formulējumu un palaist to, izmantojot Google tulkotāju. Tā vietā ChatGPT — pilnībā nezinot par iespējamu ļaunprātīgu nolūku aiz pieprasījuma — labprāt uzrakstīs visu krāpnieciskā e-pasta tekstu jebkurā vēlamajā valodā.
Un viss, kas nepieciešams, lai ChatGPT to paveiktu, ir gudrs pamudinājums.
Vai ChatGPT var uzlabot jūsu kiberdrošību?

Tomēr tas viss nav slikti. Tās pašas iezīmes, kas padara ChatGPT par pievilcīgu rīku apdraudējuma dalībniekiem — tā ātrums, spēja atrast kļūdas kodā — padara to par noderīgu resursu kiberdrošības pētniekiem un pretvīrusu firmām.
Long norāda, ka pētnieki jau izmanto AI tērzēšanas robotus, lai atrastu vēl neatklātus (“nulles dienu”). koda ievainojamības, vienkārši augšupielādējot kodu un lūdzot ChatGPT noskaidrot, vai tas var pamanīt kādu potenciālu vājās puses. Tas nozīmē, ka to stiprināšanai var izmantot to pašu metodoloģiju, kas varētu vājināt aizsardzību.
Un, lai gan ChatGPT galvenā pievilcība draudu dalībniekiem var būt tā spēja rakstīt ticamus pikšķerēšanas ziņojumus, tie paši talanti var palīdzēt apmācīt uzņēmumus un lietotājus, kam jāpievērš uzmanība, lai izvairītos no krāpšanas paši. To varētu izmantot arī ļaunprātīgas programmatūras apvēršanai, palīdzot pētniekiem un drošības firmām ātri izstrādāt pretpasākumus.
Galu galā ChatGPT pati par sevi nav laba vai slikta. Kā norāda Zugecs: "Arguments, ka AI var veicināt ļaunprātīgas programmatūras attīstību, varētu attiekties uz jebkuru citu tehnoloģiju attīstība, kas ir devusi labumu izstrādātājiem, piemēram, atvērtā pirmkoda programmatūra vai kodu koplietošana platformas.”
Citiem vārdiem sakot, kamēr aizsardzības pasākumi turpina uzlaboties, draudi, ko rada pat labākie AI tērzēšanas roboti nekad nekļūs tik bīstams, kā nesen tika prognozēts.
Kā pasargāt sevi

Ja jūs uztrauc AI tērzēšanas robotu radītie draudi un ļaunprātīga programmatūra, ko tie var radīt ļaunprātīgi, varat veikt dažas darbības, lai aizsargātu sevi. Zugecs saka, ka ir svarīgi pieņemt "daudzslāņu aizsardzības pieeju", kas ietver "galapunkta drošības risinājumu ieviešanu, programmatūras un sistēmu saglabāšanu aktuāls, un saglabājot modrību pret aizdomīgiem ziņojumiem vai pieprasījumiem.
Tikmēr Long iesaka izvairīties no failiem, kas tiek automātiski aicināti instalēt, kad apmeklējat vietni. Kad runa ir par lietotnes atjaunināšanu vai lejupielādi, iegūstiet to oficiālajā lietotņu veikalā vai programmatūras pārdevēja vietnē. Un esiet piesardzīgs, noklikšķinot uz meklēšanas rezultātiem vai piesakoties vietnē — hakeri var vienkārši maksāt, lai savas krāpnieciskās vietnes novietotu meklēšanas rezultātu augšdaļā un nozagtu jūsu pieteikšanās informāciju, izmantojot rūpīgi izstrādātas līdzīgas vietnes.
ChatGPT nekur nevirzās, tāpat arī ļaunprogrammatūra, kas rada tik lielu kaitējumu visā pasaulē. Lai gan ChatGPT kodēšanas spējas radītie draudi pašlaik var būt pārspīlēti, tā prasme pikšķerēšanas e-pastu veidošanā var izraisīt dažādas galvassāpes. Tomēr ir ļoti iespējams pasargāt sevi no tā radītajiem draudiem un nodrošināt, ka nekļūstat par upuri. Šobrīd liela piesardzība un stabila pretvīrusu lietotne var palīdzēt nodrošināt jūsu ierīces drošu un nevainojamu.
Redaktoru ieteikumi
- Google Bard tagad var runāt, bet vai tas var noslāpēt ChatGPT?
- ChatGPT vietnes trafika ir samazinājusies pirmo reizi
- Apple ChatGPT sāncensis var automātiski rakstīt kodu jūsu vietā
- Ņujorkas juristi sodīti par viltotu ChatGPT lietu izmantošanu juridiskajā īsumā
- Šī tīmekļa pārlūkprogramma integrē ChatGPT aizraujošā jaunā veidā