Nel 2018, OpenAI ha riferito che la quantità di potenza di calcolo utilizzata in grandi Dal 2012, le sessioni di addestramento AI su larga scala sono raddoppiate ogni 3,4 mesi. Più o meno nello stesso periodo, anche il volume di dati generati è aumentato drasticamente.
Ciò significa che l’infrastruttura aziendale tradizionale e generica non è in grado di fornire le prestazioni richieste potenza di calcolo, né può supportare i petabyte di dati necessari per addestrare modelli di intelligenza artificiale accurati su questa scala. Invece, le aziende hanno bisogno di hardware dedicato progettato per i carichi di lavoro IA.
Porta avanti una nuova collaborazione tra Canonical e NVIDIA che mira ad accelerare le implementazioni su larga scala dei progetti di IA e rendere l’open source accessibile su hardware efficace per la formazione IA.
Charmed Kubeflow è ora certificato come parte del programma software NVIDIA DGX-Ready. Kubeflow è una piattaforma MLOps end-to-end open source che viene eseguita su Kubernetes. È progettato per automatizzare i flussi di lavoro di apprendimento automatico, creando un livello di applicazione affidabile in cui i modelli possono essere spostati in produzione.
Viene fornito con un pacchetto di strumenti che include KServe e KNative, quindi le capacità di inferenza e pubblicazione sono migliorate indipendentemente dal framework ML utilizzato. Charmed Kubeflow può essere utilizzato con strumenti e framework di intelligenza artificiale come NVIDIA Triton Inference Server per la pubblicazione di modelli per migliorare lo stack.
I sistemi NVIDIA DGX sono progettati appositamente per i casi d’uso di intelligenza artificiale aziendale. Queste piattaforme sono dotate di GPU NVIDIA Tensor Core, che superano le prestazioni delle CPU tradizionali per i carichi di lavoro di machine learning, insieme a funzionalità di rete e archiviazione avanzate. Inoltre, i sistemi DGX includono NVIDIA AI Enterprise, il livello software della piattaforma NVIDIA AI, che include oltre 50 framework e modelli preaddestrati per accelerare lo sviluppo.
“Canonical ha lavorato a stretto contatto con NVIDIA per consentire alle aziende di gestire facilmente l’AI su larga scala. Insieme, facilitiamo lo sviluppo di modelli di machine learning ottimizzati, utilizzando un’infrastruttura specializzata in AI, con MLOps open source.”afferma Andreea Munteanu, product manager MLOps presso Canonical.”L’estensione di questa collaborazione agli altri livelli dello stack, per avere sia altri tipi di hardware, sia strumenti e framework di intelligenza artificiale come NVIDIA Triton Inference Server, consentirà agli sviluppatori di beneficiare di una pipeline di sviluppo completamente integrata.”
Puoi scoprire di più sul DGX-Ready programma software sul sito NVIDIA e ci sarà un webinar congiunto Canonical/NVIDIA per discutere delle implementazioni dell’IA il 28 marzo a mezzogiorno ET.
Photo Credit: NicoElNino/Shutterstock