Az Nvidia Guardrails megold egy nagy problémát az AI chatbotokkal kapcsolatban

Az Nvidia bemutatja új NeMo Guardrails eszközét a mesterséges intelligencia fejlesztői számára, és azt ígéri, hogy az AI chatbotokhoz hasonló ChatGPT csak egy kicsit kevésbé őrült. A nyílt forráskódú szoftver már elérhető a fejlesztők számára, és három területre összpontosít, hogy az AI chatbotokat hasznosabbá és kevésbé nyugtalanítóvá tegye.

Az eszköz a felhasználó és a nagy nyelvi modell (LLM) között helyezkedik el, amellyel kapcsolatba lép. Biztonságot jelent a chatbotok számára, elfogják a válaszokat, mielőtt azok elérnék a nyelvi modellt, hogy leállítsák a modellt a válaszadásban, vagy konkrét utasításokat adhassanak neki a válaszadásra vonatkozóan.

A Bing Chat azt mondja, hogy ember akar lenni.
Jacob Roach / Digital Trends

Az Nvidia szerint a NeMo Guardrails az aktuális, biztonsági és biztonsági határokra összpontosít. A tematikus fókusz tűnik a leghasznosabbnak, mivel arra kényszeríti az LLM-et, hogy a válaszok egy bizonyos tartományában maradjon. Az Nvidia bemutatta a Guardrails-t egy chatbot bemutatásával, amely a vállalat HR-adatbázisán alapul. Amikor feltettünk egy kérdést az Nvidia pénzügyeivel kapcsolatban, azt a NeMo Guardrails-szel programozott választ adott.

Összefüggő

  • A legjobb szerzők fizetést követelnek az AI-cégektől munkájuk felhasználásáért
  • GPT-4: hogyan kell használni az AI chatbotot, amely megszégyeníti a ChatGPT-t
  • Az Nvidia nem akarja, hogy tudjon a vitatott új GPU-járól

Ez fontos a sok úgynevezett hallucináció miatt, amelyeket az AI chatbotoknál tapasztaltunk. A Microsoft Bing Chatje, például, számos bizarrral szolgált számunkra és tényszerűen helytelen válaszok az első bemutatónkban. Amikor olyan kérdéssel szembesül, amelyet az LLM nem ért, gyakran választ ad, hogy megpróbálja kielégíteni a kérdést. A NeMo Guardrails célja, hogy véget vessen ezeknek a kitalált válaszoknak.

Ajánlott videók

A biztonsági és biztonsági alapelvek arra összpontosítanak, hogy kiszűrjék a nem kívánt válaszokat az LLM-ből, és megakadályozzák, hogy a felhasználók játszadozzanak vele. Ahogy már láttuk, megteheti jailbreak ChatGPT és más AI chatbotok. A NeMo Guardrails fogadja ezeket a lekérdezéseket, és megakadályozza, hogy valaha is eljussanak az LLM-hez.

Az Nvidia NeMo Guardrails eszközének diagramja.

Bár a NeMo Guardrails úgy készült, hogy a chatbotokat a témában és pontosságban tartsák, ez nem egy átfogó megoldás. Az Nvidia szerint ez működik a legjobban második védelmi vonalként, és a chatbotokat fejlesztő és telepítő cégeknek továbbra is ki kell képezniük a modellt a biztosítékokra.

A fejlesztőknek testre kell szabniuk az eszközt az alkalmazásaikhoz is. Ez lehetővé teszi, hogy a NeoMo Guardrails az AI modellek által már használt köztes szoftverek tetejére üljön, mint például a LangChain, amely már keretet biztosít az AI chatbotoknak a felhasználókkal való interakciójához.

Amellett, hogy nyílt forráskódú, az Nvidia a NeMo Guardrails-t is kínálja részeként AI Foundations szolgáltatás. Ez a csomag számos előre betanított modellt és keretrendszert biztosít azoknak a vállalatoknak, amelyeknek nincs idejük vagy erőforrásuk saját modelljeik betanítására és karbantartására.

Szerkesztői ajánlások

  • Ezért gondolják az emberek, hogy a GPT-4 idővel egyre hülyébb lesz
  • ChatGPT: a legfrissebb hírek, viták és tippek, amelyeket tudnia kell
  • Mi az a DAN prompt a ChatGPT-hez?
  • A Wix a ChatGPT segítségével segít egy teljes webhely gyors felépítésében
  • A Google Bard már beszélni tud, de ki tudja-e fojtani a ChatGPT-t?

Frissítse életmódjátA Digital Trends segítségével az olvasók nyomon követhetik a technológia rohanó világát a legfrissebb hírekkel, szórakoztató termékismertetőkkel, éleslátó szerkesztőségekkel és egyedülálló betekintésekkel.