ในปี 2018 OpenAI รายงาน ว่ากำลังการประมวลผลจำนวนมากที่ใช้ใน-การฝึกอบรม AI ในระดับสเกลเพิ่มขึ้นเป็นสองเท่าทุกๆ 3.4 เดือนตั้งแต่ปี 2012 ในช่วงเวลาเดียวกัน ปริมาณข้อมูลที่สร้างขึ้นก็เพิ่มขึ้นอย่างมากเช่นกัน

นั่นหมายความว่าโครงสร้างพื้นฐานแบบดั้งเดิมขององค์กรที่ใช้งานทั่วไปไม่สามารถส่งมอบสิ่งที่จำเป็น พลังการประมวลผล และไม่สามารถรองรับข้อมูลระดับเพตะไบต์ที่จำเป็นสำหรับการฝึกโมเดล AI ที่แม่นยำในระดับนี้ องค์กรต่างๆ ต้องการฮาร์ดแวร์เฉพาะที่ออกแบบมาสำหรับปริมาณงาน AI

ก้าวไปสู่ความร่วมมือครั้งใหม่ระหว่าง Canonical และ NVIDIA ที่มีเป้าหมายเพื่อเร่งการปรับใช้โครงการ AI ในระดับต่างๆ และทำให้โอเพ่นซอร์สสามารถเข้าถึงได้บนฮาร์ดแวร์ที่มีประสิทธิภาพสำหรับการฝึกอบรม AI.

ปัจจุบัน Charmed Kubeflow ได้รับการรับรองเป็นส่วนหนึ่งของโปรแกรม NVIDIA DGX-Ready Software Kubeflow เป็นแพลตฟอร์ม MLOps แบบโอเพ่นซอร์สแบบ end-to-end ที่ทำงานบน Kubernetes ได้รับการออกแบบมาเพื่อทำให้เวิร์กโฟลว์แมชชีนเลิร์นนิงทำงานโดยอัตโนมัติ สร้างเลเยอร์แอปพลิเคชันที่เชื่อถือได้ซึ่งโมเดลสามารถย้ายไปยังการผลิตได้

มาพร้อมกับชุดเครื่องมือที่มี KServe และ KNative ดังนั้นความสามารถในการอนุมานและการให้บริการจึงได้รับการปรับปรุงโดยไม่คำนึงถึง กรอบ ML ที่ใช้ Charmed Kubeflow สามารถใช้กับเครื่องมือ AI และเฟรมเวิร์ก เช่น NVIDIA Triton Inference Server สำหรับโมเดลที่ให้บริการเพื่อปรับปรุงสแต็ก

ระบบ NVIDIA DGX สร้างขึ้นตามวัตถุประสงค์สำหรับกรณีการใช้งาน AI ขององค์กร แพลตฟอร์มเหล่านี้มี GPU ของ NVIDIA Tensor Core ซึ่งมีประสิทธิภาพดีกว่า CPU แบบดั้งเดิมสำหรับเวิร์คโหลดการเรียนรู้ของเครื่อง ควบคู่ไปกับความสามารถด้านเครือข่ายและสตอเรจขั้นสูง นอกจากนี้ ระบบ DGX ยังรวมถึง NVIDIA AI Enterprise ซึ่งเป็นเลเยอร์ซอฟต์แวร์ของแพลตฟอร์ม NVIDIA AI ซึ่งมีเฟรมเวิร์กมากกว่า 50 แบบและโมเดลที่ได้รับการฝึกอบรมล่วงหน้าเพื่อเร่งการพัฒนา

“Canonical ได้ทำงานอย่างใกล้ชิดกับ NVIDIA เพื่อเปิดใช้งาน บริษัทต่าง ๆ เพื่อใช้งาน AI ในวงกว้าง เราร่วมกันอำนวยความสะดวกในการพัฒนาโมเดลแมชชีนเลิร์นนิงที่ปรับให้เหมาะสมโดยใช้โครงสร้างพื้นฐานเฉพาะของ AI ด้วยโอเพ่นซอร์ส MLOps”Andreea Munteanu ผู้จัดการผลิตภัณฑ์ MLOps ของ Canonical กล่าว”การขยายความร่วมมือนี้ไปยังเลเยอร์อื่นๆ ของสแต็ก เพื่อให้มีทั้งฮาร์ดแวร์ประเภทอื่นๆ ตลอดจนเครื่องมือและเฟรมเวิร์ก AI เช่น NVIDIA Triton Inference Server จะช่วยให้นักพัฒนาได้รับประโยชน์จากขั้นตอนการพัฒนาที่ผสานรวมอย่างสมบูรณ์”

คุณสามารถค้นหาข้อมูลเพิ่มเติมเกี่ยวกับ DGX-Ready โปรแกรมซอฟต์แวร์บนไซต์ NVIDIA และจะมีการสัมมนาทางเว็บร่วมกันระหว่าง Canonical/NVIDIA เพื่อหารือเกี่ยวกับการปรับใช้ AI ในวันที่ 28 มีนาคม เวลาเที่ยง ET

เครดิตรูปภาพ: NicoElNino/Shutterstock

By Kaitlynn Clay

ฉันทำงานเป็นผู้เชี่ยวชาญด้าน UX ฉันสนใจในการออกแบบเว็บและการวิเคราะห์พฤติกรรมผู้ใช้ ในวันหยุดของฉัน ฉันมักจะไปเยี่ยมชมพิพิธภัณฑ์ศิลปะเสมอ