Según se informa, un novato ha creado un poderoso malware de extracción de datos utilizando solo ChatGPT indicaciones, todo en un lapso de unas pocas horas.
Aaron Mulgrew, investigador de seguridad de Forcepoint, recientemente compartió cómo creó malware de día cero exclusivamente en El chatbot generativo de OpenAI. Si bien OpenAI tiene protecciones contra cualquiera que intente pedirle a ChatGPT que escriba código malicioso, Mulgrew encontré una laguna solicitando al chatbot que cree líneas separadas del código malicioso, función por función.
Vídeos recomendados
Después de compilar las funciones individuales, Mulgrew había creado en sus manos un ejecutable de robo de datos casi indetectable. Y este tampoco era un malware típico: el malware era tan sofisticado como cualquier ataque de un estado-nación, capaz de evadir a todos los proveedores basados en la detección.
Relacionado
- GPT-4: cómo utilizar el chatbot de IA que avergüenza a ChatGPT
- Wix usa ChatGPT para ayudarte a crear rápidamente un sitio web completo
- OpenAI, fabricante de ChatGPT, se enfrenta a una investigación de la FTC sobre las leyes de protección al consumidor
Igualmente crucial es cómo el malware de Mulgrew se diferencia de las iteraciones “normales” de estados-nación en el sentido de que no requiere equipos de hackers (y una fracción de tiempo y recursos) para construirlo. Mulgrew, que no hizo nada de codificación él mismo, tuvo el ejecutable listo en solo unas horas, en lugar de las semanas que normalmente se necesitan.
El malware Mulgrew (suena bien, ¿no?) se disfraza como una aplicación de protector de pantalla (extensión SCR), que luego se inicia automáticamente en Windows. Luego, el software examinará archivos (como imágenes, documentos de Word y PDF) en busca de datos para robar. Lo impresionante es que el malware (mediante esteganografía) descompondrá los datos robados en fragmentos más pequeños y los ocultará dentro de imágenes en la computadora. Estas imágenes luego se cargan en una carpeta de Google Drive, procedimiento que evita la detección.
Igualmente impresionante es que Mulgrew pudo refinar y fortalecer su código contra la detección usando indicaciones simples en ChatGPT, lo que realmente aumentó la pregunta sobre qué tan seguro es usar ChatGPT. Al ejecutar las primeras pruebas de VirusTotal, el malware fue detectado por cinco de 69 productos de detección. Posteriormente, ninguno de los productos detectó una versión posterior de su código.
Tenga en cuenta que el malware que creó Mulgrew fue una prueba y no está disponible públicamente. No obstante, su investigación ha demostrado con qué facilidad los usuarios con poca o ninguna experiencia avanzada en codificación pueden evite las débiles protecciones de ChatGPT para crear fácilmente malware peligroso sin siquiera ingresar una sola línea de código.
Pero aquí está la parte aterradora de todo esto: este tipo de código generalmente requiere semanas para compilar a un equipo más grande. No nos sorprendería que piratas informáticos infames ya estuvieran desarrollando malware similar a través de ChatGPT mientras hablamos.
Recomendaciones de los editores
- ChatGPT: las últimas noticias, controversias y consejos que necesitas saber
- ¿Qué es un mensaje DAN para ChatGPT?
- Google Bard ahora puede hablar, pero ¿puede ahogar a ChatGPT?
- El tráfico del sitio web ChatGPT ha caído por primera vez
- La función de navegación Bing de ChatGPT está deshabilitada debido a una falla en el acceso al muro de pago
Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.