Nvidia Guardrails soluciona un gran problema con los chatbots de IA

Nvidia presenta su nueva herramienta NeMo Guardrails para desarrolladores de IA y promete hacer chatbots de IA como ChatGPT un poco menos loco. El software de código abierto ya está disponible para los desarrolladores y se centra en tres áreas para hacer que los chatbots de IA sean más útiles y menos inquietantes.

La herramienta se encuentra entre el usuario y el modelo de lenguaje grande (LLM) con el que interactúa. Es una seguridad para los chatbots, interceptar respuestas antes de que lleguen al modelo de lenguaje para evitar que el modelo responda o para darle instrucciones específicas sobre cómo responder.

Bing Chat dice que quiere ser humano.
Jacob Roach / Tendencias digitales

Nvidia dice que NeMo Guardrails se centra en los límites de actualidad, seguridad y protección. El enfoque temático parece ser el más útil, ya que obliga al LLM a permanecer en un rango particular de respuestas. Nvidia hizo una demostración de Guardrails mostrando un chatbot entrenado en la base de datos de recursos humanos de la empresa. Cuando se le hizo una pregunta sobre las finanzas de Nvidia, dio una respuesta enlatada que fue programada con NeMo Guardrails.

Relacionado

  • Los principales autores exigen un pago a las empresas de inteligencia artificial por utilizar su trabajo
  • GPT-4: cómo utilizar el chatbot de IA que avergüenza a ChatGPT
  • Nvidia no quiere que sepas sobre su controvertida nueva GPU

Esto es importante debido a las muchas llamadas alucinaciones que hemos visto en los chatbots de IA. Chat Bing de Microsoft, Por ejemplo, nos proporcionó varios extraños y respuestas objetivamente incorrectas en nuestra primera demostración. Cuando se enfrenta a una pregunta que el LLM no comprende, a menudo inventa una respuesta en un intento de satisfacer la consulta. NeMo Guardrails tiene como objetivo poner fin a esas respuestas inventadas.

Vídeos recomendados

Los principios de seguridad y protección se centran en filtrar respuestas no deseadas del LLM y evitar que los usuarios jueguen con él. Como ya hemos visto, puedes JailbreakChatGPT y otros chatbots de IA. NeMo Guardrails tomará esas consultas y evitará que lleguen al LLM.

Un diagrama de la herramienta NeMo Guardrails de Nvidia.

Aunque NeMo Guardrails está diseñado para mantener los chatbots actualizados y precisos, no es una solución general. Nvidia dice que funciona mejor como segunda línea de defensa y que las empresas que desarrollan e implementan chatbots aún deberían entrenar el modelo con un conjunto de salvaguardas.

Los desarrolladores también deben personalizar la herramienta para que se ajuste a sus aplicaciones. Esto permite a NeoMo Guardrails ubicarse sobre el middleware que los modelos de IA ya usan, como LangChain, que ya proporciona un marco sobre cómo se supone que los chatbots de IA interactúan con los usuarios.

Además de ser de código abierto, Nvidia también ofrece NeMo Guardrails como parte de su Servicio de fundamentos de IA. Este paquete proporciona varios modelos y marcos previamente entrenados para empresas que no tienen el tiempo ni los recursos para entrenar y mantener sus propios modelos.

Recomendaciones de los editores

  • He aquí por qué la gente piensa que GPT-4 podría volverse más tonto con el tiempo
  • ChatGPT: las últimas noticias, controversias y consejos que necesitas saber
  • ¿Qué es un mensaje DAN para ChatGPT?
  • Wix usa ChatGPT para ayudarte a crear rápidamente un sitio web completo
  • Google Bard ahora puede hablar, pero ¿puede ahogar a ChatGPT?

Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.