Em 2018, OpenAI relatou que a quantidade de poder computacional usado em grandes As execuções de treinamento de IA em grande escala dobraram a cada 3,4 meses desde 2012. Na mesma época, o volume de dados gerados também aumentou drasticamente.

Isso significa que a infraestrutura empresarial tradicional de uso geral não pode fornecer o necessário poder de computação, nem pode suportar os petabytes de dados necessários para treinar modelos de IA precisos nessa escala. Em vez disso, as empresas precisam de hardware dedicado projetado para cargas de trabalho de IA.

Avance uma nova colaboração entre a Canonical e NVIDIA que visa acelerar implantações em escala de projetos de IA e tornar o código aberto acessível em hardware eficaz para treinamento em IA.

Charmed Kubeflow agora é certificado como parte do programa NVIDIA DGX-Ready Software. O Kubeflow é uma plataforma MLOps ponta a ponta de código aberto que é executada sobre o Kubernetes. Ele foi projetado para automatizar fluxos de trabalho de aprendizado de máquina, criando uma camada de aplicativo confiável onde os modelos podem ser movidos para produção.

Ele vem com um pacote de ferramentas que inclui KServe e KNative, portanto, os recursos de inferência e serviço são aprimorados independentemente do Estrutura de ML que é usada. O Charmed Kubeflow pode ser usado com ferramentas e estruturas de IA como o NVIDIA Triton Inference Server para servir de modelo para aprimorar a pilha.

Os sistemas NVIDIA DGX são desenvolvidos especificamente para casos de uso de IA empresarial. Essas plataformas apresentam GPUs NVIDIA Tensor Core, que superam as CPUs tradicionais para cargas de trabalho de aprendizado de máquina, juntamente com recursos avançados de rede e armazenamento. Além disso, os sistemas DGX incluem NVIDIA AI Enterprise, a camada de software da plataforma NVIDIA AI, que inclui mais de 50 estruturas e modelos pré-treinados para acelerar o desenvolvimento.

“A Canonical tem trabalhado em estreita colaboração com a NVIDIA para permitir empresas para executar IA em escala facilmente. Juntos, facilitamos o desenvolvimento de modelos otimizados de aprendizado de máquina, usando infraestrutura especializada em IA, com MLOps open source.”diz Andreea Munteanu, gerente de produto MLOps da Canonical.”Estender essa colaboração para as outras camadas da pilha, para ter outros tipos de hardware, bem como ferramentas e estruturas de IA, como o NVIDIA Triton Inference Server, permitirá que os desenvolvedores se beneficiem de um pipeline de desenvolvimento totalmente integrado.”

Você pode saber mais sobre o DGX-Ready Programa de software no site da NVIDIA e haverá um webinar conjunto da Canonical/NVIDIA para discutir implantações de IA em 28 de março ao meio-dia ET.

Crédito da foto: NicoElNino/Shutterstock

By Maxwell Gaven

Trabalho com TI há 7 anos. É divertido observar a constante mudança no setor de TI. TI é meu trabalho, hobby e vida.