ChatGPT는 사이버 보안 재난입니까? 우리는 전문가들에게 물었다.

스마트폰을 들고 있는 사람의 손. 스마트폰이 ChatGPT 제너레이티브 AI 웹사이트를 보여주고 있습니다.
Sanket Mishra / 펙셀

채팅GPT 이야기와 함께 지금은 꽤 피할 수 없는 느낌 그 능력에 감탄 당신이 보는 모든 곳에서 보입니다. 우리는 그것이 음악을 쓰고, 3D 애니메이션을 렌더링하고, 음악을 작곡하는 방법을 보았습니다. 당신이 그것을 생각할 수 있다면 ChatGPT는 아마도 그것을 시도할 수 있습니다.

내용물

  • 의심스러운 능력
  • 피셔맨의 친구
  • ChatGPT가 사이버 보안을 강화할 수 있습니까?
  • 자신을 안전하게 지키는 방법

그리고 그것이 바로 문제입니다. 현재 기술 커뮤니티에는 모든 방식의 수작업이 있으며 댓글 작성자는 AI가 무능한 트로이 목마와 랜섬웨어를 요술하는 가장 녹색 손가락 해커와 함께 맬웨어 종말로 이어질 수 있습니다.

추천 동영상

그러나 이것이 실제로 사실입니까? 이를 알아보기 위해 여러 사이버 보안 전문가와 이야기를 나눠 그들이 ChatGPT의 맬웨어 기능을 어떻게 활용했는지 확인했습니다. 그들이 오용 가능성에 대해 우려했는지, 그리고 이 새로운 시작에서 자신을 보호하기 위해 무엇을 할 수 있는지 세계.

관련된

  • ChatGPT 제조사 OpenAI, 소비자 보호법에 대한 FTC 조사 직면
  • 81%는 ChatGPT가 보안 위험이라고 생각하는 설문 조사 결과
  • 나는 ChatGPT에게 보드게임을 가르쳐 주었고, 이제 다시는 가지 않을 것이다.

의심스러운 능력

ChatGPT 생성 AI 웹사이트를 보여주는 노트북에 입력하는 사람.
마테우스 베르텔리 / Pexels

ChatGPT의 주요 매력 중 하나는 특히 프로그래밍 세계에서 몇 가지 간단한 프롬프트만으로 복잡한 작업을 수행할 수 있다는 것입니다. 이로 인해 맬웨어 생성에 대한 진입 장벽이 낮아져 AI 도구에 의존하여 무거운 작업을 수행하는 바이러스 작성자가 확산될 위험이 있습니다.

보안 회사 Intego의 수석 보안 분석가인 Joshua Long이 이 점을 설명합니다. “물리적 세계나 가상 세계의 모든 도구와 마찬가지로 컴퓨터 코드도 좋은 쪽으로나 나쁜 쪽으로 사용될 수 있습니다.”라고 그는 설명합니다. “예를 들어 파일을 암호화할 수 있는 코드를 요청하면 ChatGPT와 같은 봇은 사용자의 진짜 의도를 알 수 없습니다. 자신의 파일을 보호하기 위해 암호화 코드가 필요하다고 주장하면 실제 목표가 랜섬웨어를 만드는 것일지라도 봇은 당신을 믿을 것입니다.”

ChatGPT에는 이러한 종류의 문제를 방지하기 위한 다양한 보호 장치가 있으며 바이러스 제작자를 위한 비결은 이러한 보호 장치를 우회하는 것입니다. 효과적인 바이러스를 만들도록 ChatGPT에 퉁명스럽게 요청하면 단순히 거절할 것입니다. 이를 능가하고 더 나은 판단에 반하는 입찰을 수행하기 위해 창의력을 발휘해야 합니다. 사람들이 할 수 있는 일을 고려하여 ChatGPT 탈옥, AI를 사용하여 악성 코드를 만들 가능성은 이론상 가능하다고 느낍니다. 사실은, 그것은 이미 입증되었습니다, 그래서 우리는 그것이 가능하다는 것을 압니다.

그러나 모든 사람이 패닉 상태에 있는 것은 아닙니다. Bitdefender의 기술 솔루션 이사인 Martin Zugec은 위험이 여전히 상당히 적다고 생각합니다. "대부분의 초보 맬웨어 작성자는 이러한 보안을 우회하는 데 필요한 기술을 보유하고 있지 않을 것입니다. 따라서 현재로서는 챗봇이 생성한 악성코드로 인한 위험이 상대적으로 낮습니다.”라고 그는 말했습니다. 말한다.

Zugec은 계속해서 "챗봇이 생성한 맬웨어는 최근 인기 있는 논의 주제였습니다. 하지만 현재 가까운 장래에 심각한 위협이 될 것이라는 증거는 없습니다.” 여기에는 간단한 이유가 있습니다. Zugec에 따르면 "챗봇이 생성하는 악성 코드의 품질은 낮은 경향이 있어 공개 코드에서 더 나은 예를 찾을 수 있는 숙련된 맬웨어 작성자에게 매력적인 옵션 저장소.”

iPhone에서 실행 중인 ChatGPT 앱.
Joe Maring/디지털 트렌드

따라서 ChatGPT가 악성 코드를 만드는 것은 확실히 가능하지만 기술이 있는 사람이라면 누구나 가능합니다. AI 챗봇을 조작하는 데 필요한 것은 그것이 생성하는 형편없는 코드에 감명받지 않을 가능성이 높습니다, Zugec 믿는다.

그러나 짐작할 수 있듯이 생성 AI는 이제 막 시작되었습니다. 그리고 Long에게 그것은 ChatGPT가 제기하는 해킹 위험이 아직 결정되지 않았다는 것을 의미합니다.

“LLM 기반 AI 봇의 등장으로 인해 새로운 악성코드가 약간 증가하거나 악성코드가 개선될 가능성이 있습니다. 기능 및 바이러스 백신 회피”라고 Long은 말합니다. Long은 ChatGPT와 같은 AI 도구가 지식. "그러나 현시점에서 ChatGPT와 같은 도구가 실제 멀웨어 위협에 얼마나 직접적인 영향을 미치고 있는지 또는 앞으로 만들 것인지는 분명하지 않습니다."

피셔맨의 친구

컴퓨터 키보드에 입력하는 사람.

ChatGPT의 코드 작성 기술이 아직 완전하지 않다면 더 효과적인 피싱 및 사회 공학 캠페인 작성과 같은 다른 방식으로 위협이 될 수 있습니까? 여기에서 분석가들은 오용 가능성이 훨씬 더 높다는 데 동의합니다.

많은 회사에서 잠재적인 공격 벡터 중 하나는 회사 직원입니다. 직원은 속거나 조작되어 의도하지 않게 액세스 권한을 제공하도록 할 수 있습니다. 해커들은 이 사실을 알고 있으며 재앙으로 판명된 유명한 사회 공학 공격이 많이 있었습니다. 예를 들어, 북한의 Lazarus Group은 2014년 소니 시스템 침입 — 채용 담당자를 사칭하고 Sony 직원이 감염된 파일을 열도록 하여 미공개 영화 및 개인 정보 유출 결과.

이것은 ChatGPT가 해커와 피셔가 작업을 개선하는 데 크게 도움이 될 수 있는 영역 중 하나입니다. 예를 들어 공격자의 모국어가 영어가 아닌 경우 AI 챗봇을 사용하여 영어 사용자를 대상으로 하는 설득력 있는 피싱 이메일을 작성할 수 있습니다. 또는 인간 위협 행위자가 동일한 작업을 수행하는 것보다 훨씬 짧은 시간에 많은 수의 설득력 있는 메시지를 신속하게 생성하는 데 사용할 수 있습니다.

다른 AI 도구가 혼합되면 상황이 더욱 악화될 수 있습니다. Karen Renaud, Merrill Warkentin 및 George Westerman은 MIT의 슬론 경영 검토, 사기꾼은 ChatGPT를 사용하여 스크립트를 생성하고 회사 CEO를 사칭하는 딥페이크 음성으로 전화를 통해 읽도록 할 수 있습니다. 전화를 받는 회사 직원에게는 상사처럼 목소리가 들리고 행동합니다. 그 목소리가 직원에게 돈을 새 은행 계좌로 이체하라고 요청하면 직원은 상사에게 지불하는 것을 존중하기 때문에 계략에 빠질 수 있습니다.

Long이 말했듯이 “[위협 행위자]는 설득력 있는 사기 이메일을 작성하기 위해 더 이상 자신의 (종종 불완전한) 영어 기술에 의존할 필요가 없습니다. 또한 그들은 자신의 영리한 문구를 생각해내어 Google 번역을 통해 실행해서는 안됩니다. 대신 ChatGPT는 요청 뒤에 악의적인 의도가 있을 가능성을 전혀 인식하지 못하고 사기 이메일의 전체 텍스트를 원하는 언어로 기꺼이 작성합니다.”

그리고 ChatGPT가 실제로 이를 수행하도록 하는 데 필요한 것은 몇 가지 영리한 프롬프트입니다.

ChatGPT가 사이버 보안을 강화할 수 있습니까?

ChatGPT 웹사이트에 연결된 노트북.
셔터스톡

그러나 모든 것이 나쁘지는 않습니다. ChatGPT를 공격자에게 매력적인 도구로 만드는 동일한 특성, 즉 속도, 코드의 결함을 찾는 능력은 사이버 보안 연구원 및 바이러스 백신 회사에 유용한 리소스가 됩니다.

Long은 연구원들이 이미 AI 챗봇을 사용하여 아직 발견되지 않은 것("제로데이")을 찾고 있다고 지적합니다. 코드를 업로드하고 잠재적인 부분을 발견할 수 있는지 ChatGPT에 요청하면 됩니다. 약점. 이는 방어를 약화시킬 수 있는 동일한 방법론을 사용하여 방어를 강화할 수 있음을 의미합니다.

위협 행위자에 대한 ChatGPT의 주요 매력은 그럴듯한 피싱 메시지를 작성하는 능력에 있을 수 있지만, 이러한 인재는 회사와 사용자에게 사기를 피하기 위해 주의해야 할 사항을 교육하는 데 도움이 될 수 있습니다. 그들 자신. 또한 맬웨어를 리버스 엔지니어링하여 연구원과 보안 회사가 대응책을 신속하게 개발하는 데 사용할 수 있습니다.

궁극적으로 ChatGPT 자체는 본질적으로 좋거나 나쁘지 않습니다. Zugec은 "AI가 맬웨어 개발을 용이하게 할 수 있다는 주장은 다른 모든 경우에 적용될 수 있습니다. 오픈 소스 소프트웨어 또는 코드 공유와 같이 개발자에게 도움이 되는 기술 발전 플랫폼.”

즉, 안전 장치가 계속 개선되는 한 최고의 AI 챗봇 최근에 예측된 것만큼 위험해지지 않을 수도 있습니다.

자신을 안전하게 지키는 방법

흑백 배경의 OpenAI 로고 옆에 있는 ChatGPT 이름.

AI 챗봇이 제기하는 위협과 이를 악용하여 생성할 수 있는 맬웨어가 우려되는 경우 자신을 보호하기 위해 취할 수 있는 몇 가지 조치가 있습니다. Zugec은 "엔드포인트 보안 솔루션 구현, 소프트웨어 및 시스템 유지를 포함하는 "다계층 방어 접근 방식"을 채택하는 것이 중요하다고 말합니다. 최신 정보, 의심스러운 메시지나 요청에 대해 경계를 유지합니다.”

한편 Long은 웹 사이트를 방문할 때 자동으로 설치하라는 메시지가 표시되는 파일을 피하도록 권장합니다. 앱을 업데이트하거나 다운로드하려면 공식 앱 스토어나 소프트웨어 공급업체의 웹사이트에서 다운로드하세요. 그리고 검색 결과를 클릭하거나 웹사이트에 로그인할 때 주의하십시오. 해커는 단순히 비용을 지불하고 사기 사이트를 검색 결과 상단에 배치하고 로그인 정보를 훔칠 수 있습니다. 정교하게 만들어진 유사 웹사이트.

ChatGPT는 아무데도 가지 않으며 전 세계적으로 많은 피해를 입히는 맬웨어도 마찬가지입니다. ChatGPT의 코딩 능력으로 인한 위협이 현재로서는 과장된 것일 수 있지만 피싱 이메일 제작 능력은 모든 종류의 골칫거리를 유발할 수 있습니다. 그러나 그것이 제기하는 위협으로부터 자신을 보호하고 피해자가 되지 않도록 하는 것은 매우 가능합니다. 현재 충분한 주의와 견고한 바이러스 백신 앱을 통해 장치를 안전하고 건전하게 유지할 수 있습니다.

편집자 추천

  • Google Bard는 이제 말할 수 있지만 ChatGPT를 익사시킬 수 있습니까?
  • ChatGPT 웹사이트 트래픽이 처음으로 감소했습니다.
  • Apple의 ChatGPT 라이벌이 자동으로 코드를 작성할 수 있습니다.
  • 법적 서류에 가짜 ChatGPT 사례를 사용한 NY 변호사에게 벌금 부과
  • 이 웹 브라우저는 ChatGPT를 매혹적인 새로운 방식으로 통합합니다.