Nécessitera 30 000 cartes graphiques Nvidia

TrendForce estime que ChatGPT d’OpenAI nécessitera à terme plus de 30 000 cartes graphiques Nvidia.

Les cartes soyez les accélérateurs de calcul de Nvidia, tels que l’A100, afin que les joueurs ne devraient avoir aucun problème.

Utilisation de l’accélérateur A100 (Ampère). TrendForce a déterminé que ChatGPT nécessitait environ 20 000 unités pour traiter les données de formation. Le nombre augmentera considérablement, potentiellement plus de 30 000 unités, à mesure qu’OpenAI continue de déployer commercialement ChatGPT et le modèle Generative Pre-Trained Transformer (GPT) de la société.

L’A100 coûte entre 10 000 $ et 15 000 $, ce qui signifie que Nvidia obtiendra au moins 300 millions de dollars de revenus. Le nombre peut être légèrement inférieur car Nvidia accordera probablement une remise à OpenAI. OpenAI achètera probablement l’A100 individuellement et les empilera en grappes.

Nvidia a déjà commencé à expédier le H100 (Hopper). Hopper offre des performances jusqu’à trois fois plus élevées que son prédécesseur et évolue encore mieux et offre un débit jusqu’à neuf fois plus élevé dans la formation à l’IA. Cependant, il est un peu trop cher avec un prix de 32 000 $.

Intel et AMD proposent également des accélérateurs d’IA rivaux afin que Nvidia n’ait pas le marché pour lui seul, mais il semble que cela finira par faire une bonne partie de la nouvelle ruée vers l’or.

By Henry Taylor

Je travaille en tant que développeur back-end. Certains d'entre vous m'ont peut-être vu à la conférence des développeurs. Dernièrement, j'ai travaillé sur un projet open source.