Almeno per i data center 

Nvidia ha annunciato un nuovo prodotto a doppia GPU, l’H100 NVL, ma purtroppo non per giochi SLI o multi-GPU.

In effetti, sulla base di quanto afferma Nvidia, l’H100 NVL (H100 NVLink) sarà una carta spazzatura per i giochi e si rivolge al crescente mercato dell’IA.

Dalle informazioni e dalle immagini rilasciate da Nvidia, l’H100 NVL avrà tre connettori NVLink nella parte superiore, con le due schede adiacenti che si inseriscono in slot PCIe separati. Questo accomoderà i server che non supportano l’opzione SXM di Nvidia, con un focus sulle prestazioni di inferenza piuttosto che sull’addestramento.

Le connessioni NVLink dovrebbero aiutare a fornire la larghezza di banda mancante che NVSwitch fornisce alle soluzioni SXM, e ci sono anche alcune altre notevoli differenze.

Le precedenti soluzioni H100 come SXM e PCIe venivano fornite con 80 GB di memoria HBM3, ma il pacchetto conteneva sei stack, ciascuno con 16 GB di memoria. Quello che sappiamo è che l’H100 NVL verrà fornito con 94 GB per GPU e 188 GB HBM3 in totale.

Le prestazioni totali sono il doppio di quelle dell’H100 SXM: 134 teraflop di FP64, 1.979 teraflop di TF32 e 7.916 teraflop di FP8.

Ha lo stesso design di base dell’H100 PCIe, che supporta anche NVLink, ma potenzialmente ora con più core GPU abilitati e con il 17,5% in più di memoria.

Sembra anche un po’costoso. Alcuni scommettitori suggeriscono che potrebbe costare $ 80.000 per un paio di H100 NVL.

By Maxwell Gaven

Lavoro nel settore IT da 7 anni. È divertente osservare i continui cambiamenti nel settore IT. L'IT è il mio lavoro, il mio hobby e la mia vita.