Condividi su Facebook Condividi su Twitter

Nel 2019, Microsoft e OpenAI hanno collaborato con l’obiettivo di creare risorse di supercalcolo specializzate che consentissero a OpenAI di addestrare una raccolta in continua espansione di modelli di intelligenza artificiale avanzati. OpenAI richiedeva un’infrastruttura di cloud computing diversa da qualsiasi altra cosa mai tentata nel settore.

Con il passare del tempo, la partnership si è rafforzata e proprio di recente, il 13 marzo, 2023, Microsoft ha annunciato il rilascio di nuove macchine virtuali ad alta potenza e facilmente espandibili. Queste macchine sono dotate delle più recenti GPU NVIDIA H100 Tensor Core e della rete NVIDIA Quantum-2 InfiniBand. Questi aggiornamenti fanno parte di uno sforzo continuo per affrontare l’enorme sfida di aumentare le capacità di addestramento del modello AI di OpenAI.

“La co-progettazione di supercomputer con Azure è stata fondamentale per scalare le nostre esigenti esigenze di formazione sull’IA, rendendo possibile il nostro lavoro di ricerca e allineamento su sistemi come ChatGPT”, ha affermato Greg Brockman, presidente e co-fondatore di OpenAI.

Microsoft ha lanciato la macchina virtuale (VM) ND H100 v5, che consente ai clienti di aumentare le proprie risorse di elaborazione secondo necessità, con la possibilità di utilizzare da otto a migliaia di GPU NVIDIA H100. Queste GPU sono collegate insieme alla rete NVIDIA Quantum-2 InfiniBand, che secondo Microsoft comporterà velocità di elaborazione molto più elevate per i modelli IA rispetto alla generazione precedente.

Nidhi Chappell, Head of Product per Azure High-Performance Computing di Microsoft, ha rivelato che le loro recenti scoperte sono state ottenute scoprendo come costruire, eseguire e mantenere decine di migliaia di GPU posizionate insieme e connesse tramite una rete InfiniBand ad alta velocità con un ritardo minimo. Secondo Chappell, questa è stata un’impresa impegnativa perché non era mai stata tentata prima dalle aziende che forniscono le GPU e le apparecchiature di rete. In sostanza, ha detto che si stavano avventurando in un territorio inesplorato e non era certo che l’hardware potesse sopportare di essere spinto al limite senza fallire.

Inoltre, Chappell ha affermato che il raggiungimento delle migliori prestazioni possibili richiede una notevole quantità di ottimizzazione a livello di sistema. Questa ottimizzazione comporta l’utilizzo di un software che massimizza l’efficacia sia delle GPU che delle apparecchiature di rete. Al momento, l’infrastruttura di Azure è stata ottimizzata in modo specifico per l’addestramento di modelli linguistici di grandi dimensioni ed è possibile accedervi tramite le funzionalità di supercomputing IA basate su cloud di Azure.

Microsoft afferma di essere l’unico fornitore delle GPU richieste, della rete InfiniBand e la distinta infrastruttura di intelligenza artificiale necessaria per costruire modelli di intelligenza artificiale trasformativa su larga scala, disponibile solo su Microsoft Azure.

Tramite Microsoft

By Maxwell Gaven

Lavoro nel settore IT da 7 anni. È divertente osservare i continui cambiamenti nel settore IT. L'IT è il mio lavoro, il mio hobby e la mia vita.