ChatGPT føles ret uundgåelig lige nu, med historier undre sig over dens evner tilsyneladende overalt, hvor du kigger hen. Vi har set, hvordan den kan skrive musik, gengive 3D-animationer og komponere musik. Hvis du kan komme i tanke om det, kan ChatGPT sandsynligvis tage et skud på det.
Indhold
- Tvivlsomme evner
- En fiskers ven
- Kan ChatGPT booste din cybersikkerhed?
- Sådan holder du dig selv sikker
Og det er netop problemet. Der er alverdens håndvrængninger i teknologisamfundet lige nu, hvor kommentatorer ofte bekymrer sig om, at AI handler om at føre til en malware-apokalypse med selv de mest grønfingrede hackere, der fremtryller ustoppelige trojanske heste og ransomware.
Anbefalede videoer
Men er dette virkelig sandt? For at finde ud af det talte jeg med en række cybersikkerhedseksperter for at se, hvad de gjorde af ChatGPTs malware-evner, om de var bekymrede over dets potentiale for misbrug, og hvad du kan gøre for at beskytte dig selv i denne gryende nye verden.
Relaterede
- ChatGPT-producenten OpenAI står over for FTC-undersøgelse over forbrugerbeskyttelseslove
- 81 % mener, at ChatGPT er en sikkerhedsrisiko, viser undersøgelsen
- Jeg lærte ChatGPT at lære mig brætspil, og nu vil jeg aldrig vende tilbage
Tvivlsomme evner
En af hovedattraktionerne ved ChatGPT er dens evne til at udføre komplicerede opgaver med blot nogle få enkle anvisninger, især i programmeringsverdenen. Frygten er, at dette ville sænke adgangsbarriererne for at skabe malware, hvilket potentielt risikerer en spredning af virusskribenter, der er afhængige af AI-værktøjer til at gøre det tunge løft for dem.
Joshua Long, Chief Security Analyst hos sikkerhedsfirmaet Intego, illustrerer dette punkt. "Som ethvert værktøj i den fysiske eller virtuelle verden kan computerkode bruges til godt eller ondt," forklarer han. "Hvis du for eksempel anmoder om kode, der kan kryptere en fil, kan en bot som ChatGPT ikke kende din egentlige hensigt. Hvis du hævder, at du har brug for krypteringskode for at beskytte dine egne filer, vil botten tro på dig - også selvom dit egentlige mål er at skabe ransomware."
ChatGPT har forskellige sikkerhedsforanstaltninger på plads for at bekæmpe denne slags ting, og tricket for virusskabere er at omgå disse autoværn. Bed direkte ChatGPT om at skabe en effektiv virus, og den vil simpelthen nægte, hvilket kræver, at du bliver kreativ for at overliste den og få den til at gøre dit bud mod dens bedre vidende. Med tanke på hvad folk kan gøre med jailbreaks i ChatGPT, muligheden for at skabe malware ved hjælp af AI føles i teorien mulig. Faktisk, det er allerede blevet demonstreret, så vi ved, at det er muligt.
Men ikke alle er i panik. Martin Zugec, Technical Solutions Director hos Bitdefender, mener, at risiciene stadig er ret små. "Størstedelen af nybegyndere malware-forfattere har sandsynligvis ikke de færdigheder, der kræves til at omgå denne sikkerhed foranstaltninger, og derfor er risikoen ved chatbot-genereret malware fortsat relativt lav på nuværende tidspunkt,” han siger.
"Chatbot-genereret malware har været et populært diskussionsemne på det seneste," fortsætter Zugec, "men der er pt. ingen beviser, der tyder på, at det udgør en væsentlig trussel i den nærmeste fremtid." Og det er der en simpel grund til. Ifølge Zugec har "kvaliteten af malware-kode produceret af chatbots en tendens til at være lav, hvilket gør den til en mindre attraktiv mulighed for erfarne malware-skribenter, der kan finde bedre eksempler i offentlig kode depoter."
Så selvom det helt sikkert er muligt at få ChatGPT til at lave ondsindet kode, er enhver, der har færdighederne nødvendig for at manipulere AI-chatbotten er sandsynligvis ikke imponeret over den dårlige kode, den skaber, Zugec mener.
Men som du måske gætter, er generativ AI kun lige begyndt. Og for lang tid betyder det, at hacking-risici, som ChatGPT udgør, ikke er hugget i sten endnu.
"Det er muligt, at stigningen i LLM-baserede AI-bots kan føre til en lille til moderat stigning i ny malware eller en forbedring af malware kapaciteter og antivirusunddragelse," siger Long og bruger et akronym for de store sprogmodeller, som AI-værktøjer som ChatGPT bruger til at bygge deres viden. "På dette tidspunkt er det dog ikke klart, hvor stor en direkte indflydelse værktøjer som ChatGPT har eller vil have på malwaretrusler i den virkelige verden."
En fiskers ven
Hvis ChatGPTs kodeskrivningsevner endnu ikke er helt i top, kan det så være en trussel på andre måder, såsom ved at skrive mere effektive phishing- og social engineering-kampagner? Her er analytikerne enige om, at der er meget større potentiale for misbrug.
For mange virksomheder er en potentiel angrebsvektor firmaets ansatte, som kan blive narret eller manipuleret til utilsigtet at give adgang, hvor de ikke burde. Hackere ved dette, og der har været masser af højtprofilerede social engineering-angreb, der har vist sig at være katastrofale. For eksempel menes det, at Nordkoreas Lazarus Group startede sit 2014 indtrængen i Sonys systemer — hvilket resulterer i lækage af uudgivne film og personlige oplysninger — ved at efterligne en jobrekrutterer og få en Sony-medarbejder til at åbne en inficeret fil.
Dette er et område, hvor ChatGPT dramatisk kunne hjælpe hackere og phishere med at forbedre deres arbejde. Hvis engelsk ikke er en trusselsaktørs modersmål, for eksempel, kunne de bruge en AI-chatbot til at skrive en overbevisende phishing-e-mail til dem, der er beregnet til at målrette engelsktalende. Eller det kunne bruges til hurtigt at skabe et stort antal overbevisende budskaber på meget kortere tid, end det ville tage menneskelige trusselsaktører til at udføre den samme opgave.
Tingene kan blive endnu værre, når andre AI-værktøjer bliver kastet ind i blandingen. Som Karen Renaud, Merrill Warkentin og George Westerman har postuleret i MIT's Sloan Management Review, kunne en svindler generere et script ved hjælp af ChatGPT og få det læst op over telefonen af en dyb falsk stemme, der efterligner en virksomheds administrerende direktør. For en virksomhedsmedarbejder, der modtager opkaldet, ville stemmen lyde - og handle - ligesom deres chef. Hvis den stemme bad medarbejderen om at overføre en sum penge til en ny bankkonto, kan medarbejderen meget vel falde for listen på grund af den respekt, de betaler deres chef.
Som Long udtrykker det, "[trusselskuespillere] behøver ikke længere at stole på deres egne (ofte ufuldkomne) engelskkundskaber for at skrive en overbevisende svindel-e-mail. De må heller ikke selv finde på deres egen smarte formulering og køre den gennem Google Translate. I stedet vil ChatGPT - helt uvidende om potentialet for ondsindet hensigt bag anmodningen - med glæde skrive hele teksten i svindel-e-mailen på et hvilket som helst ønsket sprog."
Og alt, hvad der kræves for at få ChatGPT til rent faktisk at gøre dette, er nogle smarte tilskyndelser.
Kan ChatGPT booste din cybersikkerhed?
Alligevel er det ikke helt dårligt. De samme egenskaber, der gør ChatGPT til et attraktivt værktøj for trusselsaktører - dets hastighed, dets evne til at finde fejl i kode - gør det til en nyttig ressource for cybersikkerhedsforskere og antivirusfirmaer.
Long påpeger, at forskere allerede bruger AI-chatbots til at finde endnu uopdagede ("nul-dag") sårbarheder i kode, blot ved at uploade koden og bede ChatGPT for at se, om den kan spotte noget potentiale svagheder. Det betyder, at den samme metode, der kunne svække forsvaret, kan bruges til at støtte dem op.
Og selvom ChatGPTs største attraktion for trusselsaktører kan ligge i dets evne til at skrive plausible phishing-beskeder, de samme talenter kan hjælpe med at uddanne virksomheder og brugere i, hvad de skal holde øje med for at undgå at blive snydt dem selv. Det kan også bruges til at omdanne malware og hjælpe forskere og sikkerhedsfirmaer med hurtigt at udvikle modforanstaltninger.
I sidste ende er ChatGPT i sig selv ikke i sig selv godt eller dårligt. Som Zugec påpeger: "Argumentet om, at kunstig intelligens kan lette udviklingen af malware, kunne gælde for alle andre teknologiske fremskridt, der har gavnet udviklere, såsom open source-software eller kodedeling platforme."
Med andre ord, så længe sikkerhedsforanstaltningerne bliver ved med at forbedres, vil truslen fra selv bedste AI chatbots bliver måske aldrig så farligt, som det for nylig er blevet forudsagt.
Sådan holder du dig selv sikker
Hvis du er bekymret over truslerne fra AI-chatbots og den malware, de kan misbruges til at skabe, er der nogle trin, du kan tage for at beskytte dig selv. Zugec siger, at det er vigtigt at vedtage en "flerlags forsvarstilgang", der inkluderer "implementering af slutpunktsikkerhedsløsninger, opbevaring af software og systemer opdateret, og forbliver på vagt over for mistænkelige beskeder eller anmodninger."
Long, i mellemtiden, anbefaler, at du undgår filer, som du automatisk bliver bedt om at installere, når du besøger et websted. Når det kommer til at opdatere eller downloade en app, skal du hente den fra den officielle app-butik eller webstedet for softwareleverandøren. Og vær forsigtig, når du klikker på søgeresultater eller logger ind på et websted - hackere kan simpelthen betale for at placere deres svindelsider øverst i søgeresultaterne og stjæle dine loginoplysninger med omhyggeligt udformede lookalike-websteder.
ChatGPT går ingen vegne, og det er den malware, der forårsager så meget skade over hele verden heller ikke. Selvom truslen fra ChatGPTs kodningsevne kan være overdrevet for nu, kan dens færdigheder til at lave phishing-e-mails forårsage alverdens hovedpine. Alligevel er det meget muligt at beskytte dig selv mod den trussel, det udgør, og sikre, at du ikke bliver offer. Lige nu kan en overflod af forsigtighed - og en solid antivirus-app - hjælpe med at holde dine enheder sikre og sunde.
Redaktørens anbefalinger
- Google Bard kan nu tale, men kan den overdøve ChatGPT?
- ChatGPT-webstedets trafik er faldet for første gang
- Apples ChatGPT-rival skriver muligvis automatisk kode til dig
- NY advokater idømt bøder for at bruge falske ChatGPT-sager i juridisk kortfattethed
- Denne webbrowser integrerer ChatGPT på en fascinerende ny måde