Da marzo, NVIDIA offre AI Foundations, un servizio che consente alle aziende di addestrare grandi modelli di linguaggio (LLM) sui propri dati proprietari. Oggi l’azienda presenta NeMo Guardrails, uno strumento progettato per aiutare gli sviluppatori a garantire che le loro app di intelligenza artificiale generative siano accurate, appropriate e sicure.
NeMo Guardrails consente agli ingegneri del software di imporre tre diversi tipi di limiti sui loro LLM interni. In particolare, le aziende possono impostare “guardie tematiche” che impediranno alle loro app di affrontare argomenti per cui non sono state addestrate. Ad esempio, NVIDIA suggerisce che un chatbot di servizio clienti, con l’aiuto del software, rifiuterà di rispondere a una domanda sul meteo. Le aziende possono anche impostare limiti di sicurezza e protezione progettati per garantire che i loro LLM estraggano informazioni accurate e si connettano ad app note per essere sicure.
Secondo NVIDIA, NeMo Guardrails funziona con tutti i LLM, inclusi ChatGPT. Inoltre, l’azienda afferma che quasi tutti gli sviluppatori di software possono utilizzare il software. “Non è necessario essere un esperto di machine learning o un data scientist”, afferma. Poiché NeMo Guardrails è open source, NVIDIA osserva che funzionerà anche con tutti gli strumenti già utilizzati dagli sviluppatori enterprise.
NVIDIA sta incorporando NeMo Guardrails nel suo esistente framework NeMo per la creazione di modelli di intelligenza artificiale generativi. I clienti aziendali possono accedere a NeMo attraverso la piattaforma software AI Enterprise dell’azienda. NVIDIA offre anche il framework attraverso il suo servizio AI Foundations. Il rilascio di NeMo Guardrails arriva dopo che alcune delle AI generative più famose, tra cui Microsoft Bing e Google Bard, sono state messe sotto la lente di ingrandimento per la loro tendenza a “allucinare” informazioni. Infatti, il chatbot di Google ha commesso un errore di fatto durante la sua prima demo pubblica.