Według doniesień samozwańczy nowicjusz stworzył potężne złośliwe oprogramowanie do eksploracji danych, używając tylko CzatGPT podpowiedzi, a wszystko to w ciągu kilku godzin.
Aaron Mulgrew, badacz bezpieczeństwa Forcepoint, niedawno podzielił się tym, jak stworzył Wyłącznie złośliwe oprogramowanie typu zero-day Generacyjny chatbot OpenAI. Chociaż OpenAI ma zabezpieczenia przed każdą próbą poproszenia ChatGPT o napisanie złośliwego kodu, Mulgrew znalazł lukę poprzez monitowanie chatbota o utworzenie oddzielnych wierszy złośliwego kodu, funkcja po funkcji.
Polecane filmy
Po skompilowaniu poszczególnych funkcji Mulgrew stworzył na swoich rękach prawie niewykrywalny plik wykonywalny kradnący dane. I to też nie było złośliwe oprogramowanie — było ono tak wyrafinowane, jak wszelkie ataki na państwa narodowe i było w stanie ominąć wszystkich dostawców wykorzystujących metody wykrywania.
Powiązany
- GPT-4: jak korzystać z chatbota AI, który zawstydza ChatGPT
- Wix używa ChatGPT, aby pomóc Ci szybko zbudować całą witrynę internetową
- Twórca ChatGPT, OpenAI, staje przed dochodzeniem FTC w sprawie przepisów dotyczących ochrony konsumentów
Co równie istotne, złośliwe oprogramowanie Mulgrew różni się od „regularnych” iteracji w państwach narodowych, ponieważ jego zbudowanie nie wymaga zespołów hakerów (ani ułamka czasu i zasobów). Mulgrew, który sam nie kodował, przygotował plik wykonywalny w ciągu kilku godzin, a nie tygodni.
Szkodnik Mulgrew (niezle się prezentuje, prawda?) podszywa się pod wygaszacz ekranu (rozszerzenie SCR), który następnie uruchamia się automatycznie w systemie Windows. Oprogramowanie będzie następnie przesiewać pliki (takie jak obrazy, dokumenty programu Word i pliki PDF) w poszukiwaniu danych, które można ukraść. Imponujące jest to, że złośliwe oprogramowanie (poprzez steganografię) rozkłada skradzione dane na mniejsze części i ukrywa je w obrazach na komputerze. Obrazy te są następnie przesyłane do folderu na Dysku Google, co pozwala uniknąć wykrycia.
Równie imponujące jest to, że Mulgrew był w stanie udoskonalić i wzmocnić swój kod przed wykryciem za pomocą prostych podpowiedzi w ChatGPT, naprawdę podnosząc pytanie, jak bezpieczne jest korzystanie z ChatGPT. Wczesne testy VirusTotal wykazały, że złośliwe oprogramowanie zostało wykryte przez pięć z 69 produktów wykrywających. Żaden z produktów nie wykrył późniejszej wersji jego kodu.
Należy pamiętać, że złośliwe oprogramowanie utworzone przez Mulgrew było testowe i nie jest publicznie dostępne. Niemniej jednak jego badania wykazały, jak łatwo mogą to zrobić użytkownicy z niewielkim lub żadnym zaawansowanym doświadczeniem w kodowaniu omiń słabe zabezpieczenia ChatGPT, aby łatwo tworzyć niebezpieczne złośliwe oprogramowanie, nawet nie wchodząc w ani jedną linię kod.
Ale oto najstraszniejsza część tego wszystkiego: skompilowanie tego rodzaju kodu zajmuje zwykle więcej tygodni zespołowi. Nie bylibyśmy zaskoczeni, gdyby nikczemni hakerzy już teraz opracowywali podobne złośliwe oprogramowanie za pośrednictwem ChatGPT.
Zalecenia redaktorów
- ChatGPT: najnowsze wiadomości, kontrowersje i wskazówki, które musisz znać
- Co to jest zachęta DAN dla ChatGPT?
- Google Bard może teraz mówić, ale czy może zagłuszyć ChatGPT?
- Ruch na stronie ChatGPT spadł po raz pierwszy
- Funkcja przeglądania Bing w ChatGPT została wyłączona z powodu luki w dostępie do paywalla
Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.