ChatGPT se simte destul de inevitabil acum, cu povești minunându-se de abilitățile sale aparent oriunde te uiți. Am văzut cum poate scrie muzică, reda animații 3D și compune muzică. Dacă vă puteți gândi la asta, ChatGPT poate încerca probabil.
Cuprins
- Abilitati discutabile
- Prietenul unui phisherman
- Poate ChatGPT să vă sporească securitatea cibernetică?
- Cum să te menții în siguranță
Și tocmai asta este problema. Există tot felul de stricăciuni în comunitatea tehnologică chiar acum, comentatorii îngrijorându-se frecvent că AI este despre pentru a duce la o apocalipsă de malware, chiar și cei mai verzi hackeri care evocă troieni și ransomware de neoprit.
Videoclipuri recomandate
Dar este acest lucru cu adevărat adevărat? Pentru a afla, am vorbit cu un număr de experți în securitate cibernetică pentru a vedea ce au făcut despre abilitățile malware ale ChatGPT, dacă au fost îngrijorați de potențialul său de utilizare greșită și de ce puteți face pentru a vă proteja în această noutate lume.
Legate de
- Creatorul de ChatGPT OpenAI se confruntă cu o anchetă FTC cu privire la legile privind protecția consumatorilor
- 81% cred că ChatGPT este un risc de securitate, arată sondajul
- Am învățat ChatGPT să mă învețe jocuri de societate și acum nu mă voi întoarce niciodată
Abilitati discutabile
Una dintre principalele atracții ale ChatGPT este capacitatea sa de a efectua sarcini complicate cu doar câteva solicitări simple, mai ales în lumea programării. Teama este că acest lucru ar reduce barierele de intrare pentru crearea de malware, riscând potențial o proliferare de scriitori de viruși care se bazează pe instrumente AI pentru a face munca grea pentru ei.
Joshua Long, analist șef de securitate la firma de securitate Intego, ilustrează acest punct. „Ca orice instrument din lumea fizică sau virtuală, codul computerizat poate fi folosit pentru bine sau pentru rău”, explică el. „Dacă solicitați cod care poate cripta un fișier, de exemplu, un bot precum ChatGPT nu vă poate cunoaște intenția dvs. reală. Dacă susțineți că aveți nevoie de cod de criptare pentru a vă proteja propriile fișiere, bot-ul vă va crede - chiar dacă scopul dvs. real este să creați ransomware.”
ChatGPT are diverse măsuri de protecție pentru a combate acest gen de lucruri, iar trucul pentru creatorii de viruși este să ocolească acele balustrade. Cereți fără îndoială ChatGPT să creeze un virus eficient și pur și simplu va refuza, solicitându-vă să fiți creativ pentru a-l depăși și a-l determina să-și facă licitația împotriva judecății sale. Luând în considerare cu ce sunt capabili oamenii să facă jailbreak-uri în ChatGPT, posibilitatea de a crea malware folosind AI se simte posibilă în teorie. De fapt, a fost deja demonstrat, așa că știm că este posibil.
Dar nu toată lumea intră în panică. Martin Zugec, directorul de soluții tehnice la Bitdefender, consideră că riscurile sunt încă destul de mici. „Majoritatea scriitorilor începători de malware nu este probabil să posede abilitățile necesare pentru a ocoli aceste securitate măsurile și, prin urmare, riscul prezentat de malware generat de chatbot rămâne relativ scăzut în acest moment”, el spune.
„Malware generat de chatbot a fost un subiect popular de discuție în ultima vreme”, continuă Zugec, „dar în prezent există nicio dovadă care să sugereze că reprezintă o amenințare semnificativă în viitorul apropiat.” Și există un motiv simplu pentru asta. Potrivit lui Zugec, „calitatea codului malware produs de chatbot tinde să fie scăzută, ceea ce îl face mai puțin opțiune atractivă pentru scriitorii de programe malware cu experiență, care pot găsi exemple mai bune în codul public depozite.”
Deci, deși este cu siguranță posibil ca ChatGPT să creeze cod rău intenționat, oricine are abilitățile necesar pentru a manipula chatbot-ul AI este probabil să nu fie impresionat de codul slab pe care îl creează, Zugec crede.
Dar, după cum ați putea ghici, IA generativă abia acum începe. Iar pentru Long, asta înseamnă că riscurile de hacking prezentate de ChatGPT nu sunt încă înfipte în piatră.
„Este posibil ca creșterea boților AI bazați pe LLM să ducă la o creștere mică până la moderată a noilor malware sau la o îmbunătățire a malware-ului capabilități și evaziune antivirus”, spune Long, folosind un acronim pentru modelele mari de limbaj pe care instrumentele AI precum ChatGPT le folosesc pentru a-și construi cunoştinţe. „În acest moment, însă, nu este clar cât de mult impact direct instrumentele precum ChatGPT au sau vor avea asupra amenințărilor malware din lumea reală.”
Prietenul unui phisherman
Dacă abilitățile de scriere de cod ale ChatGPT nu sunt încă la nivel de zero, ar putea fi o amenințare în alte moduri, cum ar fi scrierea de campanii mai eficiente de phishing și inginerie socială? Aici, analiștii sunt de acord că există mult mai mult potențial de utilizare abuzivă.
Pentru multe companii, un potențial vector de atac sunt angajații companiei, care pot fi păcăliți sau manipulați pentru a oferi din greșeală acces acolo unde nu ar trebui. Hackerii știu asta și au existat o mulțime de atacuri de inginerie socială de mare profil care s-au dovedit dezastruoase. De exemplu, se crede că Grupul Lazarus din Coreea de Nord a început Intruziunea din 2014 în sistemele Sony — ducând la scurgerea de filme nelansate și de informații personale — prin uzurparea identității unui recrutor de locuri de muncă și prin determinarea unui angajat Sony să deschidă un fișier infectat.
Acesta este un domeniu în care ChatGPT ar putea ajuta în mod dramatic hackerii și phisherii să-și îmbunătățească munca. Dacă engleza nu este limba maternă a unui actor de amenințare, de exemplu, aceștia ar putea folosi un chatbot AI pentru a le scrie un e-mail convingător de phishing, care este destinat să vizeze vorbitorii de engleză. Sau ar putea fi folosit pentru a crea rapid un număr mare de mesaje convingătoare în mult mai puțin timp decât ar fi nevoie de actorii amenințărilor umani pentru a face aceeași sarcină.
Lucrurile s-ar putea înrăutăți atunci când alte instrumente AI sunt aruncate în amestec. După cum au postulat Karen Renaud, Merrill Warkentin și George Westerman Sloan Management Review de la MIT, un fraudator ar putea genera un script folosind ChatGPT și să-l citească la telefon printr-o voce falsă care uzurpă identitatea CEO-ului unei companii. Pentru un angajat al companiei care primește apelul, vocea ar suna - și acționa - la fel ca șeful lor. Dacă acea voce i-a cerut angajatului să transfere o sumă de bani într-un nou cont bancar, angajatul s-ar putea foarte bine să cadă în șmecherie din cauza deferenței pe care o plătește șefului său.
După cum spune Long, „[actorii de amenințări] nu mai trebuie să se bazeze pe propriile abilități (adesea imperfecte) de engleză pentru a scrie un e-mail convingător de înșelătorie. Nici măcar nu trebuie să vină cu propria lor formulare inteligentă și să o ruleze prin Google Translate. În schimb, ChatGPT – total inconștient de potențialul de intenție rău intenționată din spatele solicitării – va scrie cu plăcere întregul text al e-mailului înșelătorie în orice limbă dorită.”
Și tot ceea ce este necesar pentru ca ChatGPT să facă acest lucru este niște sugestii inteligente.
Poate ChatGPT să vă sporească securitatea cibernetică?
Totuși, nu este totul rău. Aceleași trăsături care fac din ChatGPT un instrument atractiv pentru actorii amenințărilor - viteza sa, capacitatea sa de a găsi defecte în cod - îl fac o resursă utilă pentru cercetătorii de securitate cibernetică și firmele de antivirus.
Long subliniază că cercetătorii folosesc deja chatbot-uri AI pentru a găsi lucruri încă nedescoperite („zero-day”) vulnerabilități în cod, pur și simplu încărcând codul și solicitând ChatGPT să vadă dacă poate detecta vreun potențial puncte slabe. Asta înseamnă că aceeași metodologie care ar putea slăbi apărarea poate fi folosită pentru a le susține.
Și în timp ce principala atracție a ChatGPT pentru actorii amenințărilor poate consta în capacitatea sa de a scrie mesaje plauzibile de phishing, aceleași talente pot ajuta la instruirea companiilor și utilizatorilor la ce trebuie să se uite pentru a evita înșelătoria înșiși. De asemenea, ar putea fi folosit pentru a face ingineria inversă a malware-ului, ajutând cercetătorii și firmele de securitate să dezvolte rapid contramăsuri.
În cele din urmă, ChatGPT în sine nu este în mod inerent bun sau rău. După cum subliniază Zugec, „Argumentul că AI poate facilita dezvoltarea de malware s-ar putea aplica oricărui alt program progres tehnologic de care a beneficiat dezvoltatorii, cum ar fi software-ul open-source sau codul de partajare platforme.”
Cu alte cuvinte, atâta timp cât garanțiile continuă să se îmbunătățească, amenințarea reprezentată chiar de cei mai buni chatbot AI s-ar putea să nu devină niciodată atât de periculos pe cât a fost prezis recent.
Cum să te menții în siguranță
Dacă sunteți îngrijorat de amenințările reprezentate de chatbot-urile AI și de malware-ul pe care aceștia pot fi abuzați pentru a le crea, există câțiva pași pe care îi puteți lua pentru a vă proteja. Zugec spune că este important să se adopte o „abordare de apărare pe mai multe straturi” care să includă „implementarea soluțiilor de securitate pentru punctele terminale, păstrarea software-ului și a sistemelor”. la ziși să rămână vigilenți împotriva mesajelor sau solicitărilor suspecte.”
Între timp, Long vă recomandă să evitați fișierele pe care vi se solicită automat să le instalați atunci când vizitați un site web. Când vine vorba de actualizarea sau descărcarea unei aplicații, obțineți-o din magazinul oficial de aplicații sau site-ul web al furnizorului de software. Și fiți atenți când faceți clic pe rezultatele căutării sau când vă conectați la un site web - hackerii pot plăti pur și simplu pentru a-și plasa site-urile înșelătorii în partea de sus a rezultatelor căutării și a vă fura informațiile de conectare cu site-uri web asemănătoare create cu grijă.
ChatGPT nu merge nicăieri și nici malware-ul care provoacă atât de multe daune în întreaga lume. În timp ce amenințarea din capacitatea de codare a ChatGPT poate fi exagerată pentru moment, competența sa în a crea e-mailuri de phishing ar putea provoca tot felul de dureri de cap. Cu toate acestea, este foarte posibil să te protejezi de amenințarea pe care o reprezintă și să te asiguri că nu ești victimă. În acest moment, o abundență de precauție – și o aplicație antivirus solidă – vă pot ajuta să vă păstrați dispozitivele în siguranță.
Recomandările editorilor
- Google Bard poate vorbi acum, dar poate îneca ChatGPT?
- Traficul site-ului ChatGPT a scăzut pentru prima dată
- Rivalul ChatGPT al Apple poate scrie automat cod pentru tine
- Avocații din New York amendați pentru că au folosit cazuri false ChatGPT în termeni juridici
- Acest browser web integrează ChatGPT într-un mod nou și fascinant