Solution de pointe pour la nouvelle ère du calcul.
Aperçu
Le système NVIDIA GB200 NVL72 permet de connecter 36 CPU Grace et 72 GPU Blackwell au sein d'une configuration rackable à refroidissement liquide. Il assure la mise en œuvre d'un domaine NVIDIA NVLink™ à 72 GPU pour fournir en temps réel des performances d’inférence jusqu'à 30 fois plus rapides avec des grands modèles de langage (LLM) dotés de billions de paramètres.
La puce GB200 Grace Blackwell Superchip est un composant-clé du système NVIDIA GB200 NVL72 puisqu'elle contribue à connecter deux GPU NVIDIA Blackwell Tensor Core et un CPU NVIDIA Grace™ via l’interface d’interconnexion NVLink-C2C pour les deux GPU Blackwell.
Points-clés
Inférence LLM et efficacité énergétique - Latence jeton-à-jeton (TTL) = 50 ms en temps réel ; Latence du premier jeton (FTL) = 5 s ; Longueur de séquence = 32 768 en entrée / 1024 en sortie. NVIDIA HGX™ H100 mis à l'échelle via InfiniBand (IB) vs GB200 NVL72. Entraînement 1.8T MOE 4096x avec HGX H100 mis à l'échelle via IB vs 456x avec GB200 NVL72 mis à l'échelle via IB. Taille de cluster : 32 768
Charge de travail portant sur des requêtes de jointure et d'agrégation de base de données avec compression Snappy / Deflate dérivées de TPC-H Q4. Implémentation de requêtes personnalisées pour un CPU x86, un GPU unique H100 et un GPU unique avec GB200 NLV72 vs un CPU Intel Xeon 8480+
Mesures de performance susceptibles d’être modifiées.
Le NVIDIA GB200 NVL4 préfigure l’avenir du HPC convergé et de l’IA en offrant des performances révolutionnaires grâce à un pont reliant quatre GPU NVIDIA NVLink Blackwell unifiés à deux CPU Grace via l’interconnexion NVLink-C2C. Compatible avec les serveurs modulaires NVIDIA MGX™ à refroidissement liquide, il offre jusqu’à deux fois plus de performances que la génération précédente en matière de calcul scientifique, d'entraînement de l’IA pour les sciences et d'applications d’inférence.
Caractéristiques
NVIDIA Mission Control alimente tous les aspects des opérations de l'usine d'IA NVIDIA GB200 NVL72, de l’orchestration des charges de travail via le domaine NVLink à 72 GPU à l’intégration au sein des installations. Cette solution à hautes performances offre une agilité instantanée pour l’inférence et l'entraînement des modèles tout en fournissant une intelligence Full-Stack pour des infrastructures axées sur la résilience. Mission Control permet à chaque entreprise de mettre à profit l'IA avec une efficacité de niveau hyperscale, ce qui accélère les expérimentations reposant sur l'IA.
Spécifications
| GB200 NVL72 | GB200 Grace Blackwell Superchip | |
| Configuration | 36 CPU Grace | 72 GPU Blackwell | 1 CPU Grace | 2 GPU Blackwell |
| NVFP4 Tensor Core2 | 1 440 | 720 PFlops | 40 | 20 PFlops |
| FP8/FP6 Tensor Core2 | 720 PFlops | 20 PFlops |
| INT8 Tensor Core2 | 720 Pops | 20 Pops |
| FP16/BF16 Tensor Core2 | 360 PFlops | 10 PFlops |
| TF32 Tensor Core2 | 180 PFlops | 5 PFlops |
| FP32 | 5760 TFLOPS | 160 TFLOPS |
| FP64 / FP64 Tensor Core | 2880 TFlops | 80 TFlops |
| Mémoire GPU | Bande passante | 13,4 To HBM3E | 576 To/s | 372 Go HBM3E | 16 To/s |
| Bande passante NVLink | 130 To/s | 3,6 To/s |
| Nombre de cœurs CPU | 2592 cœurs Arm® Neoverse V2 | 72 cœurs Arm Neoverse V2 |
| Mémoire CPU | Bande passante | 17 To LPDDR5X | 14 To/s | 480 Go LPDDR5X | 512 Go/s |
|
1. Spécification en dispersion | densité. |
||
Le système NVIDIA GB300 NVL72 se caractérise par une architecture rackable à refroidissement liquide intégral qui incorpore 72 GPU NVIDIA Blackwell Ultra et 36 CPU NVIDIA Grace™ basés sur Arm® au sein d'une plateforme unique spécifiquement conçue pour les tâches d'inférence TTS (Test-Time Scaling) et de raisonnement des modèles d'IA. Les usines d’IA alimentées par le GB300 NVL72, qui mettent à profit NVIDIA Quantum-X800 InfiniBand ou Spectrum-X Ethernet, les cartes ConnectX-8 SuperNIC et la solution logicielle NVIDIA Mission Control, fournissent des performances de sortie 50 fois plus élevées que la plateforme NVIDIA Hopper.