ChatGPT acabou de criar malware, e isso é seriamente assustador

Um novato declarado teria criado um poderoso malware de mineração de dados usando apenas Bate-papoGPT solicitações, tudo dentro de algumas horas.

Aaron Mulgrew, pesquisador de segurança da Forcepoint, recentemente compartilhou como ele criou malware de dia zero exclusivamente em Chatbot generativo da OpenAI. Embora o OpenAI tenha proteções contra qualquer pessoa que tente solicitar ao ChatGPT que escreva código malicioso, Mulgrew encontrei uma brecha solicitando ao chatbot que crie linhas separadas de código malicioso, função por função.

Vídeos recomendados

Depois de compilar as funções individuais, Mulgrew criou em suas mãos um executável de roubo de dados quase indetectável. E esse também não era um malware comum — o malware era tão sofisticado quanto qualquer ataque estatal, capaz de escapar de todos os fornecedores baseados em detecção.

Relacionado

  • GPT-4: como usar o chatbot AI que envergonha o ChatGPT
  • Wix usa ChatGPT para ajudá-lo a construir rapidamente um site inteiro
  • OpenAI, fabricante do ChatGPT, enfrenta investigação da FTC sobre leis de proteção ao consumidor

Tão crucialmente importante é como o malware de Mulgrew difere das iterações “regulares” do estado-nação, na medida em que não requer equipes de hackers (e uma fração do tempo e dos recursos) para ser construído. Mulgrew, que não fez nenhuma codificação sozinho, deixou o executável pronto em apenas algumas horas, em vez das semanas normalmente necessárias.

O malware Mulgrew (tem um toque legal, não é?) Se disfarça como um aplicativo de proteção de tela (extensão SCR), que é iniciado automaticamente no Windows. O software irá então filtrar os arquivos (como imagens, documentos do Word e PDFs) em busca de dados para roubo. A parte impressionante é que o malware (por meio da esteganografia) dividirá os dados roubados em pedaços menores e os ocultará em imagens no computador. Essas imagens são então enviadas para uma pasta do Google Drive, procedimento que evita a detecção.

Igualmente impressionante é que Mulgrew foi capaz de refinar e fortalecer seu código contra detecção usando prompts simples no ChatGPT, aumentando realmente a questão de quão seguro é usar o ChatGPT. A execução dos primeiros testes do VirusTotal detectou o malware por cinco dos 69 produtos de detecção. Uma versão posterior de seu código não foi detectada posteriormente por nenhum dos produtos.

Observe que o malware criado por Mulgrew foi um teste e não está disponível publicamente. No entanto, sua pesquisa mostrou quão facilmente usuários com pouca ou nenhuma experiência avançada em codificação podem ignore as fracas proteções do ChatGPT para criar facilmente malware perigoso, sem sequer entrar em uma única linha de código.

Mas aqui está a parte assustadora de tudo isso: esses tipos de código geralmente levam semanas para serem compilados por uma equipe maior. Não ficaríamos surpresos se hackers nefastos já estivessem desenvolvendo malware semelhante através do ChatGPT neste momento.

Recomendações dos Editores

  • ChatGPT: as últimas notícias, polêmicas e dicas que você precisa saber
  • O que é um prompt DAN para ChatGPT?
  • O Google Bard agora pode falar, mas será que pode abafar o ChatGPT?
  • O tráfego do site ChatGPT caiu pela primeira vez
  • Recurso de navegação Bing do ChatGPT desativado devido a falha de acesso pago

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.