NOPE LinkedIn

Catégories:
IA

Rapport d'Expertise Stratégique et Technique : La Plateforme HPE HGX B300 et l'Architecture NVIDIA Blackwell

Rapport d'Expertise Stratégique et Technique : La Plateforme HPE HGX B300 et l'Architecture NVIDIA Blackwell image

Rubrique: IA Tag: private Tag: ia Tag: nvidia blackwell Tag: calcul haute performance Tag: architecture nvidia

La Plateforme HPE HGX B300 et l’Architecture NVIDIA Blackwell

1. Introduction: Le Changement de Paradigme Blackwell

L’industrie du calcul haute performance (HPC) et de l’intelligence artificielle (IA) traverse actuellement une mutation structurelle majeure, marquée par le passage de l’architecture NVIDIA Hopper (H100/H200) à l’architecture Blackwell (B200/B300). Ce changement ne se résume pas à une simple augmentation linéaire des capacités de calcul ; il impose une refonte complète des infrastructures de centres de données, allant de la topologie des réseaux à la physique de la dissipation thermique. Ce rapport a pour objectif de dresser un bilan exhaustif de la plateforme HPE HGX B300, d’analyser son positionnement face à une concurrence féroce, et de définir les vecteurs d’optimisation permettant de concevoir des architectures alternatives offrant une efficacité supérieure, tant sur le plan énergétique que financier.1

La demande croissante pour l’entraînement de modèles de fondation comportant plusieurs milliards de paramètres, ainsi que l’émergence de modèles de “raisonnement” (tels que DeepSeek-R1 ou les futurs modèles OpenAI o1/o3), dictent de nouvelles exigences matérielles. La plateforme NVIDIA HGX B300, construite autour du GPU Blackwell Ultra, se positionne comme la réponse standardisée de l’industrie à ces défis. Cependant, l’intégration de cette technologie par Hewlett Packard Enterprise (HPE) présente des spécificités techniques et stratégiques qu’il convient d’analyser en profondeur pour comprendre sa valeur réelle par rapport aux solutions concurrentes de Dell, Supermicro ou Eviden.3

L’enjeu pour les décideurs informatiques n’est plus seulement de choisir un serveur, mais de concevoir une “usine à IA” (AI Factory). Dans ce contexte, la question posée—“que peut-on mettre en œuvre pour avoir mieux?"—nécessite une exploration des standards ouverts (OCP), des technologies de refroidissement avancées (immersion, flux ciblé) et des alternatives silicium (AMD Instinct). Ce document propose une analyse technique rigoureuse et des recommandations stratégiques pour naviguer dans cette nouvelle ère.4

2. Analyse Technique Approfondie de l’Architecture Blackwell B300

Pour évaluer la pertinence de l’offre HPE, il est impératif de comprendre les contraintes et les opportunités inhérentes au composant central : le GPU NVIDIA Blackwell B300. Ce processeur définit l’enveloppe thermique, électrique et computationnelle que tout intégrateur OEM doit respecter.

2.1 Blackwell Ultra : Au-delà du Calcul, la Mémoire comme Vecteur de Performance

Le GPU B300, souvent désigné sous le nom de “Blackwell Ultra”, représente une évolution significative par rapport au modèle B200 standard. Bien que les deux modèles partagent la même architecture à double réticule—reliant deux puces par une interface à haute bande passante pour fonctionner comme un GPU logique unique—le B300 se distingue par sa configuration mémoire agressive. L’intégration de 288 Go de mémoire HBM3e par GPU constitue le différenciateur critique. Cette capacité est obtenue grâce à l’utilisation de piles HBM3e de 12 hauteurs (12-hi stacks), contre 8 pour le B200.

L’impact de cette augmentation de mémoire est fondamental pour les charges de travail d’inférence générative. Dans le contexte des grands modèles de langage (LLM), la capacité mémoire dicte la taille maximale des lots (batch size) et la longueur des contextes (KV cache) pouvant être traités sans recourir à des techniques de déchargement (offloading) coûteuses en latence. Avec 288 Go par GPU, un nœud HGX B300 standard (8 GPU) offre un pool mémoire unifié de près de 2,3 To. Cela permet de maintenir en résidence mémoire des modèles Mixture-of-Experts (MoE) massifs, réduisant ainsi la dépendance aux interconnexions CPU-GPU et améliorant drastiquement le débit d’inférence (tokens par seconde).

Caractéristique Technique NVIDIA B200 NVIDIA B300 (Blackwell Ultra) Impact Technique et Stratégique
Architecture Blackwell (2 Réticules) Blackwell (2 Réticules) Fonctionnement comme une puce unifiée via NV-HBI (10 TB/s).
Mémoire HBM3e 192 Go (8-hi) 288 Go (12-hi) +50% : Permet l’inférence de modèles >1T paramètres sur un seul nœud.
Bande Passante Mémoire 8 To/s 8 To/s Identique, mais l’efficacité effective augmente avec la taille des lots.
Performance FP4 (Dense) 9 PFLOPS 15 PFLOPS +66% : Accélération critique pour l’inférence quantifiée (low-precision).
Enveloppe Thermique (TDP) 1 000 W 1 100 W - 1 400 W Nécessite impérativement un refroidissement liquide pour une densité optimale.
Interconnexion NVLink 5 (1,8 To/s) NVLink 5 (1,8 To/s) Supporte les topologies scale-up jusqu’à 72 GPU (NVL72).

Il est également crucial de noter l’évolution des capacités de calcul en précision réduite. Le B300 délivre jusqu’à 15 PFLOPS en précision FP4 2. Cette capacité est spécifiquement conçue pour l’inférence “test-time scaling”, où le modèle génère de multiples chaînes de raisonnement avant de converger vers une réponse, une technique popularisée par les modèles de type o1/DeepSeek-R1. Pour HPE, intégrer une telle puissance (plus de 120 PFLOPS FP4 par serveur) implique une gestion thermique et électrique sans précédent 2.

2.2 Le Mur Thermique et Électrique

L’intégration du B300 présente un défi majeur en termes d’ingénierie : la densité de puissance. Avec un TDP pouvant atteindre 400 W par GPU, un sous-système HGX à 8 voies dissipe à lui seul 2 kW. Une fois ajoutés les processeurs hôtes (comme les Intel Xeon ou AMD EPYC 9005), les commutateurs NVSwitch, les cartes réseaux ConnectX-8 et les pertes de conversion électrique, la consommation d’un seul serveur peut atteindre 16 kW à 18 kW.

Cette densité rend le refroidissement par air traditionnel techniquement obsolète pour les déploiements denses. Bien que des châssis refroidis par air de 8U ou 10U existent, ils nécessitent des volumes d’air massifs, engendrant des vibrations acoustiques susceptibles d’affecter la performance des disques durs et la fiabilité des composants mécaniques. C’est ici que la stratégie d’HPE se distingue, en misant massivement sur son héritage Cray pour proposer des solutions de refroidissement liquide direct (DLC - Direct Liquid Cooling) intégrées et validées industriellement.

3. Analyse de l’Offre HPE HGX B300 : Compute XD et NVL72

HPE a structuré son offre Blackwell autour de deux axes principaux : les serveurs d’entreprise de la gamme HPE ProLiant Compute XD et les solutions à l’échelle du rack HPE Cray / GB300 NVL72. Cette segmentation répond à deux besoins distincts : la flexibilité modulaire pour les entreprises et la performance brute unifiée pour les “usines à IA”.

3.1 HPE ProLiant Compute XD690 : L’Approche Modulaire

Le HPE Compute XD690 constitue la réponse standardisée d’HPE pour les entreprises souhaitant déployer des nœuds HGX B300.12 Conçu pour s’intégrer dans des racks EIA 19 pouces standards, ce serveur tente de concilier la puissance extrême du B300 avec les contraintes des centres de données existants.

Sur le plan mécanique, le XD690 est proposé en configurations refroidies par air (10U) et par liquide (5U). La version à refroidissement liquide est particulièrement critique. HPE utilise des plaques froides (cold plates) en boucle fermée ou connectées au circuit d’eau du bâtiment, capables de capturer jusqu’à 80-90% de la chaleur générée par les composants actifs.1 Cette capacité permet de densifier les racks jusqu’à des niveaux de 60-80 kW, là où un refroidissement par air limiterait la densité à 15-20 kW par rack.

L’intégration réseau est un autre point fort. Le XD690 supporte huit interfaces NVIDIA ConnectX-8 SuperNICs, chacune offrant 800 Gb/s de débit. Cette topologie 1:1 (un NIC par GPU) est indispensable pour exploiter pleinement le GPUDirect RDMA, permettant aux données de transiter directement du stockage ou des autres nœuds vers la mémoire GPU sans passer par le CPU, réduisant ainsi la latence et la charge processeur.1

Avantages Concurrentiels Spécifiques à HPE :

  1. Héritage Cray et Refroidissement Liquide : L’acquisition de Cray a doté HPE d’une propriété intellectuelle significative en matière de dynamique des fluides et de conception de CDUs (Cooling Distribution Units). Les technologies comme “Adaptive Cascade Cooling” assurent une régulation thermique fine, minimisant les risques de fuites et optimisant l’efficacité énergétique (PUE).

  2. Sécurité et Chaîne de Confiance : Le moteur de gestion iLO 6/7 (Integrated Lights-Out) intègre une “racine de confiance” au niveau du silicium (Silicon Root of Trust). Cette fonctionnalité valide l’intégrité du firmware depuis l’usine jusqu’au déploiement, empêchant l’exécution de code compromis. Dans un contexte géopolitique tendu, cet argument résonne particulièrement auprès des clients gouvernementaux et bancaires européens soucieux de la souveraineté et de la sécurité de leurs infrastructures.3

  3. Modèle Économique GreenLake : HPE commercialise ces plateformes via son modèle “as-a-service” GreenLake. Pour les entreprises, cela transforme une dépense en capital (CapEx) massive—un rack complet pouvant coûter plusieurs millions d’euros—en une dépense opérationnelle (OpEx) lissée. Cela inclut également la gestion du cycle de vie et le rafraîchissement technologique, réduisant le risque d’obsolescence rapide inhérent au secteur de l’IA.3

3.2 La Solution Rack-Scale : NVIDIA GB300 NVL72 par HPE

Pour les déploiements massifs visant l’entraînement de modèles frontières, HPE propose le GB300 NVL72. Ce n’est plus un serveur, mais un supercalculateur intégré à l’échelle du rack. Ce système connecte 36 processeurs Grace et 72 GPU Blackwell via un fond de panier en cuivre (NVLink Spine), créant un domaine GPU unique de 72 unités interconnectées à 130 To/s.2

La valeur ajoutée d’HPE sur cette architecture de référence NVIDIA réside dans l’intégration industrielle. Le NVL72 génère plus de 120 kW de chaleur par rack. HPE déploie ici ses solutions de refroidissement liquide direct (DLC) capables de capturer 100% de la chaleur des éléments de calcul, permettant à ces racks de fonctionner dans des environnements à température ambiante élevée, améliorant ainsi le PUE global de l’installation.3

Limitations de l’Approche HPE : Malgré ces atouts, l’offre HPE présente des inconvénients structurels. Le coût d’acquisition est généralement supérieur à celui des solutions “white-box” ou Supermicro, en raison de l’intégration logicielle et du support. De plus, les cycles de validation rigoureux d’HPE peuvent entraîner un léger décalage dans la disponibilité des toutes dernières configurations par rapport à des acteurs plus agiles comme Supermicro.13

4. Analyse Concurrentielle : Le Paysage des “AI Factories”

Le marché des serveurs IA est extrêmement polarisé. Pour situer HPE, il faut examiner comment ses concurrents adressent les mêmes défis thermiques et d’intégration.

4.1 Dell Technologies : La Puissance Logistique et l’Approche “AI Factory”

Dell est le concurrent le plus direct d’HPE sur le segment entreprise. Avec le PowerEdge XE9712 (version Dell du NVL72) et le XE9780, Dell mise sur sa capacité logistique massive et son concept de “Dell AI Factory”.15

  • Stratégie : Dell a été très agressif dans le déploiement du Blackwell, s’associant à CoreWeave pour livrer les premiers racks NVL72. Leur force réside dans la standardisation et la rapidité de déploiement à grande échelle.
  • Technologie : Dell promeut sa technologie “PowerCool”. Le XE9780 supporte jusqu’à 192 GPU Blackwell Ultra par rack dans des configurations ultra-denses, rivalisant directement avec la densité des solutions HPE.17
  • Comparaison : Dell l’emporte souvent sur la disponibilité et les prix pour les commandes hyperscale, tandis que HPE conserve l’avantage sur les environnements nécessitant une ingénierie thermique plus complexe ou des garanties de sécurité plus strictes (grâce à iLO).

4.2 Supermicro : Densité Maximale et Time-to-Market

Supermicro incarne l’agilité. Leur modèle “Building Block Solutions” leur permet de proposer une variété de facteurs de forme inégalée, allant des nœuds 4U refroidis par liquide aux nœuds 2OU conformes aux standards OCP.10

  • Densité Extrême : Supermicro revendique la densité la plus élevée du marché, avec jusqu’à 144 GPU B300 dans un seul rack grâce à leurs nœuds 2OU refroidis par liquide et leurs connecteurs “blind-mate”. C’est nettement supérieur à la densité typique d’un rack HPE XD690 standard.

  • Flexibilité : Contrairement à HPE qui canalise ses clients vers des lignes de produits définies, Supermicro permet une personnalisation granulaire.

  • Risque : Cette rapidité peut parfois se traduire par une maturité moindre du firmware ou une complexité de support accrue, bien que pour les clients techniquement autonomes, ce compromis soit acceptable.

4.3 Lenovo : L’Ingénierie Neptune

Lenovo se distingue par sa technologie de refroidissement Neptune. Contrairement à l’approche “add-on” de certains concurrents, le refroidissement liquide est natif dans la conception des châssis Lenovo ThinkSystem SR680a V4.20

  • Différenciateur : Lenovo propose des solutions de refroidissement liquide en boucle fermée qui ne nécessitent pas de raccordement à l’eau du bâtiment, offrant une solution intermédiaire pour les data centers non modernisés.

  • Performance : Les benchmarks MLPerf montrent régulièrement Lenovo en tête, témoignant d’une excellente optimisation BIOS/matériel.21

4.4 Eviden (Groupe Atos) : Souveraineté et Supercalcul

Pour un contexte européen et spécifiquement français, Eviden est un acteur incontournable. Le BullSequana XH3500 est une plateforme de classe exascale.22

  • Efficacité Thermique : Le XH3500 utilise une technologie de refroidissement à eau chaude (Warm Water Cooling) très avancée, permettant des PUE de 1,05. Il supporte des densités énergétiques extrêmes.
  • Souveraineté : Eviden offre des garanties de souveraineté des données et une chaîne d’approvisionnement contrôlée, un argument de poids face aux acteurs américains soumis au CLOUD Act.24
Constructeur Plateforme Clé Point Fort Principal Point Faible Principal Cas d’Usage Idéal
HPE Compute XD690 / NVL72 Héritage Cray (Refroidissement), GreenLake (OpEx) Coût élevé, cycles de validation longs Entreprises régulées, Hybride, IA Critique
Dell XE9712 / XE9780 Échelle logistique, Support Entreprise IP de refroidissement moins “exotique” Déploiements généralistes, Hyperscale
Supermicro SYS-422GS Densité (144 GPU/Rack), Rapidité Complexité du support, maturité firmware Startups IA, Cloud Providers, Tech-forward
Lenovo SR680a V4 Technologie Neptune (Fiabilité) Part de marché US plus faible Data Centers axés sur l’efficacité énergétique
Eviden BullSequana XH3500 Densité & Souveraineté, DLC Eau Chaude Écosystème de niche, coût d’entrée Recherche, Souveraineté, Supercalcul (HPC)

5. Stratégies d’Optimisation : Comment “Faire Mieux”?

La question centrale de votre requête est : “Que peut-on mettre en œuvre pour avoir la même chose, voire mieux?” Pour surpasser une implémentation HPE standard, il ne suffit pas de changer de serveur ; il faut repenser l’architecture au niveau de l’installation (facility), du rack et du silicium. Voici quatre axes stratégiques pour concevoir une infrastructure supérieure.

5.1 Axe 1 : L’Architecture OCP Open Rack V3 (ORV3) et l’Efficacité Électrique

L’utilisation de racks standards 19 pouces (EIA) limite l’efficacité pour des densités de 100 kW+. Pour faire mieux, l’adoption du standard Open Compute Project (OCP) Open Rack V3 est recommandée.4

L’Argument du 48V DC :

Les serveurs traditionnels convertissent le courant alternatif (AC) en 12V DC au niveau de chaque alimentation. Pour un rack de 120 kW, distribuer du 12V nécessiterait des barres de cuivre massives pour gérer 10 000 Ampères. ORV3 utilise une barre omnibus (busbar) de 48V DC.

  • Physique : En passant de 12V à 48V, on divise le courant par 4. Les pertes résistives (effet Joule) sont divisées par 16.

  • Gain : Cela représente une économie d’énergie de 3% à 5% au niveau du rack. Sur un cluster de 10 MW, cela équivaut à une économie de 300 à 500 kW, soit environ 400 000 € à 600 000 € par an en électricité.

  • Maintenance : Les racks ORV3 utilisent des connecteurs aveugles (blind-mate) pour le liquide et l’électricité. Les serveurs se “pluggent” simplement, réduisant drastiquement le temps de maintenance et les risques de fuite humaine par rapport aux tuyaux manuels des solutions EIA.4

Recommandation : Plutôt que des serveurs 19 pouces, déployez des nœuds OCP 2OU (comme ceux de Supermicro ou Wiwynn) dans une infrastructure ORV3 native avec étagères d’alimentation 48V centralisées.

5.2 Axe 2 : Révolutionner le Refroidissement (Immersion vs DLC)

HPE mise sur le DLC (plaques froides). Bien que performant, le DLC nécessite toujours des ventilateurs pour refroidir la mémoire, les VRM et les commutateurs, consommant 10-15% du budget énergétique du serveur. Pour “faire mieux”, l’Immersion Cooling (Refroidissement par Immersion) est la voie royale.5

Immersion Monophasique et Flux Ciblé :

Plonger les serveurs dans un fluide diélectrique permet de capturer 100% de la chaleur. Cela élimine totalement les ventilateurs serveurs.

  • Efficacité : Le PUE peut descendre à 1,02-1,03, contre 1,1-1,2 pour le DLC.1
  • Densité Thermique : Pour les puces B300 (1200W+), l’immersion standard peut être limite. Il faut utiliser des techniques de flux ciblé (Targeted Flow) ou d’Impingement (jets de fluide sous pression sur le GPU), comme proposé par des sociétés comme Submer ou GRC.27
  • Réutilisation de la Chaleur : L’eau en sortie d’un bac d’immersion peut atteindre 60°C+, rendant la revalorisation thermique (chauffage urbain) économiquement viable, transformant un centre de coûts en centre de profits potentiel.

5.3 Axe 3 : L’Alternative Réseau (Spectrum-X vs InfiniBand)

HPE poussera probablement vers l’InfiniBand (NVIDIA Quantum-X800) pour les clusters B300. C’est le standard de l’or. Cependant, pour “faire mieux” en termes de coût et de flexibilité sans sacrifier la performance, NVIDIA Spectrum-X Ethernet est une alternative crédible.28

  • Technologie : Spectrum-X apporte à l’Ethernet des fonctionnalités de contrôle de congestion et de routage adaptatif auparavant exclusives à l’InfiniBand.
  • Performance : Pour les charges de travail IA, Spectrum-X atteint une performance effective de 95% par rapport à l’InfiniBand (1,6x meilleure que l’Ethernet standard).
  • Avantage : Les commutateurs Ethernet sont moins chers, les compétences sont plus répandues, et l’intégration avec le reste du réseau d’entreprise est simplifiée. Pour un cloud multi-locataire (multi-tenant), Spectrum-X offre une meilleure isolation des performances.

5.4 Axe 4 : L’Alternative Silicium (AMD Instinct MI355X)

Est-il possible d’avoir “mieux” que le B300? Si votre charge de travail est dominée par l’inférence de modèles open-source (Llama 3, Mistral) via des frameworks comme vLLM, l’AMD Instinct MI355X (architecture CDNA 4) est une alternative sérieuse.30

  • Comparaison : Le MI355X offre également 288 Go de HBM3e et supporte les formats FP4/FP6.
  • Bande Passante : AMD a historiquement offert un meilleur ratio bande passante/prix.
  • Indépendance : Choisir AMD permet d’échapper à la “taxe NVIDIA” (marges élevées, verrouillage NVLink). Le TCO matériel peut être 20% à 30% inférieur.
  • Maturité : La stack logicielle ROCm a atteint un niveau de maturité suffisant pour l’inférence et le fine-tuning. Cependant, pour l’entraînement de fondation (pre-training) à très grande échelle, NVIDIA reste le choix “sans risque” grâce à la robustesse de sa stack (Megatron-LM, NeMo). [32]

6. Analyse du Coût Total de Possession (TCO) et ROI

Construire une infrastructure HGX B300 représente un investissement massif. L’analyse TCO révèle que le coût d’acquisition matériel (CapEx) est rapidement rattrapé par les coûts opérationnels (OpEx) sur 3 à 5 ans.

6.1 Le Coût de l’Énergie comme Nouveau CapEx

Avec une consommation de 120 kW par rack, le coût de l’électricité sur 3 ans peut égaler le coût du châssis (hors GPU).

  • Scénario Standard (Air Cooling PUE 1.5) : 120 kW IT ![][image2] 180 kW Total.
  • Scénario Optimisé (DLC/Immersion PUE 1.1) : 120 kW IT ![][image2] 132 kW Total.
  • Gain : 48 kW d’économie permanente. À un tarif industriel de 0,15 €/kWh, cela représente ~63 000 € d’économie par rack et par an. Sur un cluster de 10 racks pendant 3 ans, l’économie approche les 2 Millions d’Euros.33

6.2 La Densité comme Accélérateur de Performance

“Mieux” signifie aussi plus rapide. En densifiant les racks (144 GPU/rack avec OCP/Supermicro contre 48 GPU/rack standard), on réduit la longueur physique des câbles.

  • Des câbles plus courts permettent l’utilisation de câbles en cuivre passifs (DAC) au lieu de câbles optiques actifs (AOC) coûteux et consommateurs d’énergie pour les courtes distances.
  • La réduction de la latence de propagation du signal améliore l’efficacité des communications collectives (All-Reduce) lors de l’entraînement distribué.

7. Conclusion et Recommandations Stratégiques

La plateforme HPE HGX B300 est une solution d’élite, combinant la puissance brute de l’architecture Blackwell avec l’expertise en refroidissement liquide de Cray et la sécurité de la chaîne logistique HPE. Elle constitue le choix idéal pour les grandes entreprises cherchant une solution supportée, financée (GreenLake) et sécurisée.

Cependant, pour répondre à votre ambition d’avoir “mieux”, il faut sortir des sentiers battus de l’intégration OEM standard. La véritable excellence opérationnelle en 2026 ne réside pas dans le choix du serveur, mais dans la conception intégrée de l’installation.

Feuille de Route pour une Infrastructure “Supérieure” :

  1. Adopter le Standard OCP ORV3 : Passez à des racks de 48V DC avec une distribution de 21 pouces pour gagner 5% d’efficacité électrique immédiate et tripler la densité de calcul 2.

  2. Viser l’Immersion ou le DLC Intégral : Ne vous contentez pas du refroidissement par air. L’investissement dans le refroidissement liquide est amorti par les économies d’OpEx en moins de 2 ans.

  3. Évaluer le Réseau Spectrum-X : Pour les clusters dédiés à l’IA (hors simulation physique pure), l’Ethernet optimisé offre un meilleur rapport performance/prix/manageabilité que l’InfiniBand.

  4. Considérer AMD pour l’Inférence : Si votre modèle économique repose sur le service de modèles open-source, l’AMD MI355X offre un TCO potentiellement bien meilleur sans sacrifier la capacité mémoire critique.

En synthèse, si HPE offre la sécurité et la robustesse, une approche basée sur les standards ouverts (OCP) et les technologies de refroidissement avancées (Immersion) vous permettra de construire une infrastructure plus dense, plus efficace et plus économique sur le long terme.

Annexe Technique : Comparatif des Spécifications

Caractéristique HPE Compute XD690 Dell PowerEdge XE9712 Supermicro 2OU Liquid Cooled Eviden BullSequana XH3500
Format 10U (Air) / 5U (Liquide) Rack Scale (NVL72) 2OU (Standard OCP) Blade Propriétaire
Configuration GPU 8x B300 SXM 72x B300 (par rack) 8x B300 SXM Configurable (Haute Densité)
Mémoire Totale (Nœud) 2,3 To HBM3e ~20 To HBM3e (Pool) 2,3 To HBM3e 2,3 To HBM3e
Refroidissement Air ou DLC (Techno Cray) DLC (PowerCool) DLC-2 (Blind Mate) DLC Eau Chaude (40°C+)
Densité Max (GPU/Rack) ~48 72 144 Très Haute (Variable)
Interconnexion NVLink 5 + 8x 800G NVLink 5 (Cuivre) NVLink 5 + 8x 800G BXI ou NDR InfiniBand
Alimentation Redondante AC/DC Barre Omnibus DC Barre Omnibus DC (48V) Haute Tension Directe
Logiciel Clé HPE GreenLake, iLO Dell AI Factory, Omnia SuperCloud Composer Stack HPC Propriétaire

1