Nvidia Guardrails rezolvă o mare problemă cu chatbot-urile AI

Nvidia introduce noul său instrument NeMo Guardrails pentru dezvoltatorii AI și promite că va face ca chatbot-ii AI ChatGPT doar puțin mai puțin nebun. Software-ul open-source este disponibil pentru dezvoltatori acum și se concentrează pe trei domenii pentru a face chatbot-ii AI mai utili și mai puțin neliniștitori.

Instrumentul se află între utilizator și modelul de limbă mare (LLM) cu care interacționează. Este o siguranță pentru chatbot, care interceptează răspunsurile înainte ca acestea să ajungă vreodată la modelul lingvistic fie pentru a opri modelul să răspundă, fie pentru a-i oferi instrucțiuni specifice despre cum să răspundă.

Bing Chat spune că vrea să fie uman.
Jacob Roach / Digital Trends

Nvidia spune că NeMo Guardrails se concentrează pe limitele de actualitate, de siguranță și de securitate. Accentul de actualitate pare a fi cel mai util, deoarece forțează LLM să rămână într-o anumită gamă de răspunsuri. Nvidia a făcut demonstrații Guardrails arătând un chatbot antrenat în baza de date de resurse umane a companiei. Când a fost pus o întrebare despre finanțele Nvidia, a dat un răspuns predefinit care a fost programat cu NeMo Guardrails.

Legate de

  • Autorii de top cer plăți de la firmele de inteligență artificială pentru utilizarea lucrărilor lor
  • GPT-4: cum să folosești chatbot-ul AI care face ChatGPT de rușine
  • Nvidia nu vrea să știți despre noul său GPU controversat

Acest lucru este important din cauza numeroaselor așa-numite halucinații pe care le-am văzut din chatbot-urile AI. Bing Chat de la Microsoft, de exemplu, ne-a oferit câteva bizare și răspunsuri incorecte în primul nostru demo. Când se confruntă cu o întrebare pe care LLM nu o înțelege, deseori va inventa un răspuns în încercarea de a satisface interogarea. NeMo Guardrails își propune să pună capăt acestor răspunsuri inventate.

Videoclipuri recomandate

Principiile de siguranță și securitate se concentrează pe filtrarea răspunsurilor nedorite de la LLM și pe prevenirea ca acesta să fie jucat de utilizatori. După cum am văzut deja, puteți jailbreak ChatGPT și alți chatbot AI. NeMo Guardrails va prelua acele interogări și le va bloca să nu ajungă vreodată la LLM.

O diagramă a instrumentului NeMo Guardrails de la Nvidia.

Deși NeMo Guardrails a fost construit pentru a menține chatbot-ul la subiect și exact, nu este o soluție generală. Nvidia spune că funcționează cel mai bine ca a doua linie de apărare și că companiile care dezvoltă și desfășoară chatbot-uri ar trebui să antreneze modelul cu privire la un set de garanții.

Dezvoltatorii trebuie să personalizeze instrumentul pentru a se potrivi și cu aplicațiile lor. Acest lucru permite NeoMo Guardrails să stea deasupra middleware-ului pe care modelele AI îl folosesc deja, cum ar fi LangChain, care oferă deja un cadru pentru modul în care ar trebui să interacționeze chatbot-urile AI cu utilizatorii.

Pe lângă faptul că este open-source, Nvidia oferă și NeMo Guardrails ca parte a acestuia Serviciul AI Foundations. Acest pachet oferă mai multe modele și cadre pre-instruite pentru companiile care nu au timp sau resurse pentru a-și instrui și întreține propriile modele.

Recomandările editorilor

  • Iată de ce oamenii cred că GPT-4 ar putea deveni mai prost în timp
  • ChatGPT: cele mai recente știri, controverse și sfaturi pe care trebuie să le cunoașteți
  • Ce este un prompt DAN pentru ChatGPT?
  • Wix folosește ChatGPT pentru a vă ajuta să construiți rapid un întreg site
  • Google Bard poate vorbi acum, dar poate îneca ChatGPT?

Îmbunătățește-ți stilul de viațăDigital Trends îi ajută pe cititori să țină cont de lumea rapidă a tehnologiei cu toate cele mai recente știri, recenzii distractive despre produse, editoriale perspicace și anticipări unice.