Im Jahr 2018 berichtete OpenAI, dass die Menge an verwendeter Rechenleistung groß ist KI-Trainingsläufe im großen Maßstab wurden seit 2012 alle 3,4 Monate verdoppelt. Etwa zur gleichen Zeit stieg auch das Volumen der generierten Daten dramatisch an.
Das bedeutet, dass traditionelle, universelle Unternehmensinfrastrukturen nicht die erforderliche Leistung erbringen können Rechenleistung, noch kann es die Petabytes an Daten unterstützen, die erforderlich sind, um genaue KI-Modelle in dieser Größenordnung zu trainieren. Stattdessen benötigen Unternehmen dedizierte Hardware, die für KI-Arbeitslasten ausgelegt ist.
Vorantreiben einer neuen Zusammenarbeit zwischen Canonical und NVIDIA, das darauf abzielt, die Bereitstellung von KI-Projekten im großen Maßstab zu beschleunigen und Open Source auf effektiver Hardware für KI-Training zugänglich zu machen.
Charmed Kubeflow ist jetzt als Teil des NVIDIA DGX-Ready Software-Programms zertifiziert. Kubeflow ist eine Open-Source-End-to-End-MLOps-Plattform, die auf Kubernetes ausgeführt wird. Es wurde entwickelt, um Machine-Learning-Workflows zu automatisieren und eine zuverlässige Anwendungsschicht zu schaffen, auf der Modelle in die Produktion verschoben werden können.
Es wird mit einem Tool-Bundle geliefert, das KServe und KNative enthält, sodass Inferenz-und Serving-Fähigkeiten unabhängig davon verbessert werden ML-Framework, das verwendet wird. Charmed Kubeflow kann mit KI-Tools und Frameworks wie NVIDIA Triton Inference Server für die Modellbereitstellung zur Erweiterung des Stacks verwendet werden.
NVIDIA DGX-Systeme wurden speziell für KI-Anwendungsfälle in Unternehmen entwickelt. Diese Plattformen verfügen neben erweiterten Netzwerk-und Speicherfunktionen über NVIDIA Tensor Core-GPUs, die herkömmliche CPUs für maschinelles Lernen übertreffen. Darüber hinaus umfassen DGX-Systeme NVIDIA AI Enterprise, die Softwareebene der NVIDIA AI-Plattform, die über 50 Frameworks und vortrainierte Modelle zur Beschleunigung der Entwicklung umfasst.
“Canonical hat eng mit NVIDIA zusammengearbeitet, um dies zu ermöglichen Unternehmen, KI problemlos in großem Maßstab auszuführen. Gemeinsam erleichtern wir die Entwicklung optimierter Modelle für maschinelles Lernen unter Verwendung einer KI-spezialisierten Infrastruktur mit MLOps Open Source.”sagt Andreea Munteanu, MLOps-Produktmanagerin bei Canonical. „Durch die Ausweitung dieser Zusammenarbeit auf die anderen Schichten des Stacks, um sowohl andere Arten von Hardware als auch KI-Tools und Frameworks wie NVIDIA Triton Inference Server zu haben, können Entwickler von einer vollständig integrierten Entwicklungspipeline profitieren.“
Sie können mehr über DGX-Ready erfahren Softwareprogramm auf der NVIDIA-Website und es wird ein gemeinsames Canonical/NVIDIA-Webinar
Bildnachweis: NicoElNino/Shutterstock