
Le paysage de l’intelligence artificielle est en constante évolution, et NVIDIA, acteur majeur du secteur, dévoile sa vision audacieuse pour l’avenir des « gigawatt AI factories » lors de l’OCP Global Summit. L’entreprise, en collaboration avec plus de cinquante partenaires, prépare le terrain pour une nouvelle génération d’infrastructures massives, conçues pour répondre aux exigences croissantes de l’IA. Cette initiative marque une étape significative dans la course à l’échelle et à l’efficacité énergétique dans le domaine de l’IA.
Au cœur de cette révolution se trouve l’architecture NVIDIA Vera Rubin NVL144, une solution ouverte et modulaire pensée pour l’optimisation de l’inférence et des charges de travail intensives. Ce système, associé à l’écosystème NVIDIA Kyber, promet de transformer la manière dont les data centers sont conçus et exploités. Les annonces de NVIDIA soulignent également l’importance d’une approche collaborative, avec une multitude de partenaires qui contribuent à cette vision ambitieuse.
Vera Rubin NVL144 : Une Architecture Conçue pour l’Échelle
La Vera Rubin NVL144 est bien plus qu’un simple serveur. Il s’agit d’une plateforme intégrée, conçue pour maximiser l’efficacité énergétique et la densité de calcul. Son design modulaire, avec un refroidissement liquide à 100%, permet une maintenance simplifiée et une évolutivité accrue. L’utilisation d’une carte centrale remplaçant les connexions câblées traditionnelles accélère l’assemblage et le service. Les baies d’extension modulaires permettent d’intégrer les dernières technologies de réseau NVIDIA ConnectX-9 800GB/s et NVIDIA Rubin CPX pour l’inférence à grande échelle.
L’architecture MGX, qui sous-tend le Vera Rubin NVL144, est conçue pour être un standard ouvert, permettant aux partenaires de NVIDIA d’innover et de proposer des solutions compatibles. Le design du rack, avec son refroidissement liquide à 45°C et son nouveau busbar refroidi par liquide, offre une performance accrue et une stabilité énergétique renforcée. NVIDIA contribue activement aux standards de l’OCP, comme en témoigne son engagement dans la conception électro-mécanique du système NVIDIA GB200 NVL72, et compte bien faire de même avec les futures générations. Le système MGX permet aux partenaires de s’adapter rapidement et de déployer des infrastructures d’IA à l’échelle du gigawatt.
NVIDIA Kyber : La Nouvelle Génération de Serveurs Rack
L’écosystème OCP se prépare également pour NVIDIA Kyber, une nouvelle génération de serveurs rack qui succède à NVIDIA Oberon. Cette architecture intègre des innovations en matière de distribution d’énergie en 800 VDC, de refroidissement liquide et de conception mécanique. L’objectif est de supporter une plateforme haute densité de 576 GPU NVIDIA Rubin Ultra d’ici 2027. Cette transition vers l’architecture 800 VDC, comme celle qui est déjà adoptée par les industries des véhicules électriques et du solaire, permet une meilleure efficacité énergétique, une réduction des matériaux et une capacité de performance accrue. Vertiv a d’ailleurs dévoilé son architecture de référence 800 VDC MGX, une infrastructure complète de puissance et de refroidissement.
La conception innovante de Kyber permet d’augmenter la densité des GPU par rack, d’accroître la taille du réseau et de maximiser les performances pour les infrastructures d’IA à grande échelle. La rotation verticale des lames de calcul, comme des livres sur une étagère, permet d’intégrer jusqu’à 18 lames de calcul par châssis. Les lames de commutation NVIDIA NVLink intégrées, quant à elles, facilitent une mise en réseau évolutive et sans câble. Avec Kyber, l’infrastructure des data centers hyperscale sera capable de répondre aux exigences des charges de travail d’IA générative de pointe, tout en réduisant les coûts liés à l’utilisation de cuivre.
Un Écosystème Ouvert pour l’Avenir
L’initiative de NVIDIA repose sur la collaboration. Plus de vingt partenaires industriels soutiennent cette vision, notamment des fournisseurs de semi-conducteurs, de composants de systèmes d’alimentation et de systèmes de refroidissement. Parmi eux, on retrouve des noms tels qu’Analog Devices, Infineon, Renesas, ABB, Eaton et Vertiv. L’écosystème NVLink Fusion s’étend également, permettant l’intégration transparente de la silicon semi-personnalisé dans les architectures de data centers, réduisant ainsi la complexité et accélérant la mise sur le marché. Intel et Samsung Foundry rejoignent cet écosystème, renforçant ainsi la capacité de NVIDIA à répondre à la demande croissante de processeurs et de puces personnalisées.
L’annonce de NVIDIA lors de l’OCP Global Summit met en lumière une transformation majeure dans le domaine de l’IA. En adoptant une approche ouverte et collaborative, l’entreprise et ses partenaires ouvrent la voie à des infrastructures d’IA plus performantes, plus efficaces et plus durables. L’accent mis sur l’architecture 800 VDC, le refroidissement liquide et les designs modulaires témoigne d’une volonté d’innover à tous les niveaux. Le futur des « gigawatt AI factories » semble prometteur, et NVIDIA se positionne comme un acteur clé de cette révolution technologique.

