VMware e Nvidia hanno annunciato la scorsa settimana l’espansione della loro partnership strategica per preparare le centinaia di migliaia di imprese che utilizzano l’infrastruttura cloud di VMware all’era dell’intelligenza artificiale generativa. VMware Private AI Foundation con Nvidia consentirà alle aziende di personalizzare modelli ed eseguire applicazioni di intelligenza artificiale generativa, inclusi chatbot intelligenti, assistenti, ricerca e riepilogo. La piattaforma sarà una soluzione completamente integrata con software di intelligenza artificiale generativa ed elaborazione accelerata di Nvidia, basata su VMware Cloud Foundation e ottimizzata per l’intelligenza artificiale.
“Le aziende di tutto il mondo stanno facendo a gara per integrare l’intelligenza artificiale generativa nelle loro attività”, ha affermato Jensen Huang, fondatore e Ceo di Nvidia. “La nostra collaborazione ampliata con VMware offrirà a centinaia di migliaia di clienti, nel settore dei servizi finanziari, della sanità, della produzione e altro ancora, il software e l’elaborazione completi di cui hanno bisogno per sbloccare il potenziale dell’intelligenza artificiale generativa utilizzando applicazioni personalizzate costruite con i propri dati”.
“L’intelligenza artificiale generativa e il multi-cloud rappresentano la combinazione perfetta”, ha affermato Raghu Raghuram, Ceo di VMware. “I dati dei clienti sono ovunque: nei data center, nell’edge e nel cloud. Insieme a Nvidia, consentiremo alle aziende di eseguire i propri carichi di lavoro di intelligenza artificiale generativa accanto ai propri dati in tutta sicurezza, affrontando al tempo stesso i problemi di privacy, sicurezza e controllo dei dati aziendali”.
La piattaforma includerà Nvidia NeMo, un framework end-to-end cloud-native incluso in Nvidia AI Enterprise, il sistema operativo della piattaforma Nvidia AI, che consente alle aziende di creare, personalizzare e distribuire modelli di IA generativa praticamente ovunque. Per l’implementazione dell’intelligenza artificiale generativa in produzione, NeMo utilizza TensorRT for Large Language Models (TRT-LLM), che accelera e ottimizza le prestazioni di inferenza sugli ultimi LLM su Gpu Nvidia. Con NeMo, VMware Private AI Foundation con Nvidia consentirà alle aziende di inserire i propri dati per creare ed eseguire modelli di IA generativa personalizzati sull’infrastruttura cloud ibrida di VMware.
Nei giorni scorsi Nvidia ha anche presentato i dati di fatturato per il secondo trimestre 2023: 13,51 miliardi di dollari, in crescita del 101% rispetto a un anno fa e dell’88% rispetto al trimestre precedente. “Una nuova era informatica è iniziata. Le aziende di tutto il mondo stanno passando dal calcolo generico al calcolo accelerato e all’intelligenza artificiale generativa”, ha affermato il suo Ceo.
Potrebbe interessarti anche:
Arrow distribuisce a livello globale il kit di sviluppo Nvidia Drive AGX Orin