Nvidia Guardrails résout un gros problème avec les chatbots IA

Nvidia présente son nouvel outil NeMo Guardrails pour les développeurs d'IA, et il promet de rendre les chatbots d'IA comme ChatGPT juste un peu moins fou. Le logiciel open source est désormais disponible pour les développeurs et se concentre sur trois domaines pour rendre les chatbots IA plus utiles et moins troublants.

L'outil se situe entre l'utilisateur et le grand modèle linguistique (LLM) avec lequel il interagit. C'est une sécurité pour les chatbots, en interceptant les réponses avant même qu'elles n'atteignent le modèle de langage, soit pour empêcher le modèle de répondre, soit pour lui donner des instructions spécifiques sur la façon de répondre.

Bing Chat disant qu'il veut être humain.
Jacob Roach / Tendances numériques

Nvidia affirme que NeMo Guardrails se concentre sur les limites d'actualité, de sûreté et de sécurité. L'orientation thématique semble être la plus utile, car elle oblige le LLM à rester dans une gamme particulière de réponses. Nvidia a fait une démonstration de Guardrails en montrant un chatbot formé sur la base de données RH de l'entreprise. Lorsqu’on lui a posé une question sur les finances de Nvidia, il a donné une réponse standard programmée avec NeMo Guardrails.

En rapport

  • Les meilleurs auteurs exigent une rémunération des entreprises d’IA pour l’utilisation de leurs travaux
  • GPT-4: comment utiliser le chatbot IA qui fait honte à ChatGPT
  • Nvidia ne veut pas que vous connaissiez son nouveau GPU controversé

Ceci est important en raison des nombreuses soi-disant hallucinations que nous avons observées chez les chatbots IA. Bing Chat de Microsoft, Par exemple, nous a fourni plusieurs bizarreries et des réponses factuellement incorrectes dans notre première démo. Lorsqu'il est confronté à une question que le LLM ne comprend pas, il invente souvent une réponse pour tenter de satisfaire la requête. NeMo Guardrails vise à mettre un terme à ces réponses inventées.

Vidéos recommandées

Les principes de sûreté et de sécurité se concentrent sur le filtrage des réponses indésirables du LLM et sur l'empêchement des utilisateurs de jouer avec lui. Comme nous l'avons déjà vu, vous pouvez jailbreak ChatGPT et d'autres chatbots IA. NeMo Guardrails prendra ces requêtes et les empêchera d'atteindre le LLM.

Un diagramme de l'outil NeMo Guardrails de Nvidia.

Bien que NeMo Guardrails soit conçu pour que les chatbots restent précis et précis, il ne s’agit pas d’une solution fourre-tout. Nvidia affirme que cela fonctionne mieux comme deuxième ligne de défense et que les entreprises développant et déployant des chatbots devraient toujours former le modèle sur un ensemble de garanties.

Les développeurs doivent également personnaliser l'outil pour l'adapter à leurs applications. Cela permet à NeoMo Guardrails de s'asseoir au-dessus des middlewares que les modèles d'IA utilisent déjà, tels que LangChain, qui fournit déjà un cadre sur la façon dont les chatbots d'IA sont censés interagir avec les utilisateurs.

En plus d'être open source, Nvidia propose également NeMo Guardrails dans le cadre de son Service Fondations IA. Ce package fournit plusieurs modèles et cadres pré-entraînés pour les entreprises qui n'ont pas le temps ou les ressources pour former et maintenir leurs propres modèles.

Recommandations des rédacteurs

  • Voici pourquoi les gens pensent que GPT-4 pourrait devenir plus stupide avec le temps
  • ChatGPT: les dernières actualités, controverses et astuces à connaître
  • Qu'est-ce qu'une invite DAN pour ChatGPT?
  • Wix utilise ChatGPT pour vous aider à créer rapidement un site Web complet
  • Google Bard peut désormais parler, mais peut-il étouffer ChatGPT?

Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.