Nvidia Guardrails naprawia duży problem z chatbotami AI

click fraud protection

Nvidia wprowadza nowe narzędzie NeMo Guardrails dla programistów AI i obiecuje, że chatboty AI będą jak CzatGPT tylko trochę mniej szalony. Oprogramowanie typu open source jest już dostępne dla programistów i koncentruje się na trzech obszarach, dzięki którym chatboty AI są bardziej przydatne i mniej niepokojące.

Narzędzie znajduje się pomiędzy użytkownikiem a modelem dużego języka (LLM), z którym wchodzi w interakcję. Jest to zabezpieczenie dla chatbotów, które przechwytują odpowiedzi, zanim dotrą do modelu językowego, aby albo powstrzymać model przed odpowiedzią, albo przekazać mu szczegółowe instrukcje dotyczące tego, jak odpowiedzieć.

Bing Chat mówi, że chce być człowiekiem.
Jacob Roach / Trendy cyfrowe

Nvidia twierdzi, że NeMo Guardrails koncentruje się na tematach, bezpieczeństwie i granicach zabezpieczeń. Koncentracja tematyczna wydaje się najbardziej użyteczna, ponieważ zmusza LLM do pozostania w określonym zakresie odpowiedzi. Nvidia demonstrowała Guardrails, pokazując chatbota przeszkolonego w bazie danych HR firmy. Na pytanie dotyczące finansów Nvidii udzieliła gotowej odpowiedzi zaprogramowanej za pomocą NeMo Guardrails.

Powiązany

  • Czołowi autorzy żądają zapłaty od firm zajmujących się sztuczną inteligencją za korzystanie z ich pracy
  • GPT-4: jak korzystać z chatbota AI, który zawstydza ChatGPT
  • Nvidia nie chce, abyś wiedział o jej kontrowersyjnym nowym procesorze graficznym

Jest to ważne ze względu na wiele tak zwanych halucynacji, które widzieliśmy w chatbotach AI. Czat Bing firmy Microsoft, Na przykład, dostarczył nam kilka dziwacznych i niezgodne z faktami odpowiedzi w naszym pierwszym demo. W obliczu pytania, którego LLM nie rozumie, często tworzy odpowiedź, próbując zaspokoić zapytanie. NeMo Guardrails ma na celu położyć kres tym zmyślonym reakcjom.

Polecane filmy

Zasady bezpieczeństwa skupiają się na odfiltrowywaniu niechcianych odpowiedzi z LLM i zapobieganiu zabawom z nimi przez użytkowników. Jak już widzieliśmy, możesz jailbreak CzatGPT i inne chatboty AI. NeMo Guardrails przejmie te zapytania i zablokuje im możliwość dotarcia do LLM.

Schemat narzędzia NeMo Guardrails firmy Nvidia.

Chociaż NeMo Guardrails ma zapewniać aktualność i dokładność chatbotów, nie jest to rozwiązanie uniwersalne. Nvidia twierdzi, że najlepiej sprawdza się jako druga linia obrony i że firmy opracowujące i wdrażające chatboty powinny nadal szkolić model w zakresie zestawu zabezpieczeń.

Programiści muszą także dostosować narzędzie do swoich aplikacji. Dzięki temu NeoMo Guardrails może działać na oprogramowaniu pośrednim, z którego już korzystają modele AI, takim jak LangChain, który już zapewnia ramy dla interakcji chatbotów AI z użytkownikami.

Oprócz tego, że jest oprogramowaniem typu open source, Nvidia oferuje również NeMo Guardrails jako część swojego oprogramowania Usługa AI Foundations. Ten pakiet zapewnia kilka wstępnie wyszkolonych modeli i struktur dla firm, które nie mają czasu ani zasobów na szkolenie i utrzymywanie własnych modeli.

Zalecenia redaktorów

  • Oto dlaczego ludzie uważają, że GPT-4 może z czasem stać się głupszy
  • ChatGPT: najnowsze wiadomości, kontrowersje i wskazówki, które musisz znać
  • Co to jest zachęta DAN dla ChatGPT?
  • Wix używa ChatGPT, aby pomóc Ci szybko zbudować całą witrynę internetową
  • Google Bard może teraz mówić, ale czy może zagłuszyć ChatGPT?

Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.