2018 年,OpenAI 報告自 2012 年以來,大規模的 AI 訓練運行每 3.4 個月翻一番。大約在同一時間,生成的數據量也急劇增加。
這意味著傳統的通用企業基礎設施無法提供所需的計算能力,也無法支持以這種規模訓練準確的 AI 模型所需的 PB 級數據。相反,企業需要專為 AI 工作負載設計的專用硬件。
推動 Canonical 和NVIDIA 旨在加速 AI 項目的大規模部署,並在有效的 AI 訓練硬件上提供開放源代碼.
Charmed Kubeflow 現在被認證為 NVIDIA DGX-Ready 軟件程序的一部分。 Kubeflow 是一個在 Kubernetes 之上運行的開源端到端 MLOps 平台。它旨在自動化機器學習工作流程,創建一個可靠的應用層,模型可以在其中轉移到生產中。
它附帶一個包括 KServe 和 KNative 的工具包,因此推理和服務功能得到增強,無論使用的 ML 框架。 Charmed Kubeflow 可與 NVIDIA Triton 推理服務器等 AI 工具和框架一起使用,用於模型服務以增強堆棧。
NVIDIA DGX 系統專為企業 AI 用例而構建。這些平台配備 NVIDIA Tensor Core GPU,在機器學習工作負載方面性能優於傳統 CPU,並具有高級網絡和存儲功能。此外,DGX 系統包括 NVIDIA AI Enterprise,即 NVIDIA AI 平台的軟件層,其中包括 50 多個框架和預訓練模型以加速開發。
“Canonical 一直與 NVIDIA 密切合作,以實現公司可以輕鬆地大規模運行 AI。我們共同促進優化機器學習模型的開發,使用 AI 專用基礎設施和 MLOps 開源。” Canonical 的 MLOps 產品經理 Andreea Munteanu 說。 “將這種協作擴展到堆棧的其他層,同時擁有其他類型的硬件以及 AI 工具和框架,例如 NVIDIA Triton 推理服務器,將使開發人員能夠從完全集成的開發管道中受益。”
您可以了解有關 DGX-Ready 的更多信息NVIDIA 網站上的軟件程序,並且將有一個Canonical/NVIDIA 聯合網絡研討會 在美國東部時間 3 月 28 日中午討論 AI 部署。
圖片來源: NicoElNino/Shutterstock