La révolution de l’intelligence artificielle agentive est en marche, et Microsoft et NVIDIA sont au cœur de cette transformation. Leur collaboration approfondie promet d’accélérer les découvertes scientifiques et d’ouvrir de nouvelles voies d’innovation dans de nombreux secteurs. De la puissance du cloud aux performances des PC, cette alliance technologique repousse les limites de ce qui est possible, offrant aux chercheurs et aux développeurs des outils inédits pour façonner l’avenir.
L’annonce de Microsoft Discovery lors de Microsoft Build marque une étape importante. Cette plateforme extensible est conçue pour permettre aux chercheurs de transformer l’ensemble du processus de découverte grâce à l’IA agentive. L’objectif est clair : accélérer la mise sur le marché de nouveaux produits et étendre le processus de découverte pour tous les scientifiques. Les intégrations de technologies NVIDIA promettent des avancées significatives dans plusieurs domaines.
Microsoft Discovery : L’IA Agentive au Service de la Recherche
Microsoft Discovery s’appuie sur l’intégration de plusieurs technologies NVIDIA pour optimiser les processus de recherche. L’un des éléments clés est l’intégration du microservice NVIDIA ALCHEMI NIM, qui optimise l’inférence d’IA pour les simulations chimiques. Cela permet d’accélérer la recherche en science des matériaux, notamment la prédiction des propriétés et la recommandation de candidats. De plus, la plateforme intègre les microservices NVIDIA BioNeMo NIM, qui exploitent des flux de travail d’IA pré-entraînés pour accélérer le développement de modèles d’IA pour la découverte de médicaments. Ces intégrations offrent aux chercheurs des performances accélérées, favorisant des découvertes scientifiques plus rapides. Lors de tests, des chercheurs de Microsoft ont utilisé Microsoft Discovery pour détecter un nouveau prototype de liquide de refroidissement avec des propriétés prometteuses pour le refroidissement par immersion dans les centres de données en moins de 200 heures, contre des mois, voire des années, avec les méthodes traditionnelles.
NVIDIA GB200 et l’IA Agentive à Grande Échelle
Microsoft déploie rapidement des centaines de milliers de GPU NVIDIA Blackwell, utilisant les systèmes à l’échelle des racks NVIDIA GB200 NVL72 dans les centres de données Azure optimisés pour l’IA du monde entier, augmentant ainsi les performances et l’efficacité. Des clients tels qu’OpenAI exécutent déjà des charges de travail de production sur cette infrastructure. Microsoft prévoit que chacun de ces centres de données Azure AI offrira 10 fois les performances du superordinateur le plus rapide du monde actuel et sera alimenté à 100 % par des énergies renouvelables d’ici la fin de cette année. Les machines virtuelles ND GB200 v6 d’Azure, basées sur cette architecture à l’échelle des racks avec jusqu’à 72 GPU NVIDIA Blackwell par rack et un refroidissement liquide avancé, offrent jusqu’à 35 fois plus de débit d’inférence par rapport aux anciennes machines virtuellesND H100 v5 accélérées par huit GPU NVIDIA H100, établissant une nouvelle référence pour les charges de travail d’IA. Cette échelle et ces performances sont soutenues par des conceptions de serveurs personnalisées, des interconnexions NVIDIA NVLink à haut débit et la mise en réseau NVIDIA Quantum InfiniBand, permettant une mise à l’échelle transparente à des milliers de GPU Blackwell pour les applications d’IA générative et agentive exigeantes. Vous pouvez en savoir plus sur les dernières innovations alimentant les nouveaux centres de données Azure AI, notamment le refroidissement liquide avancé, les systèmes sans gaspillage d’eau et la construction durable, en regardant le discours de Scott Guthrie, vice-président exécutif de Microsoft, lors de Microsoft Build.
NIM et l’IA dans le Domaine de la Santé et de la Recherche
S’appuyant sur l’intégration NIM dans Azure AI Foundry, annoncée lors de NVIDIA GTC, Microsoft et NVIDIA élargissent la plateforme avec la famille de modèles de raisonnement ouverts NVIDIA Llama Nemotron et les microservices NVIDIA BioNeMo NIM. Ces derniers offrent une inférence de niveau entreprise, conteneurisée, pour la prise de décision complexe et les charges de travail d’IA spécifiques à un domaine. Les développeurs peuvent désormais accéder à des microservices NIM optimisés pour le raisonnement avancé dans Azure AI Foundry. Cela inclut les modèles NVIDIA Llama Nemotron Superet Nano, qui offrent des capacités de raisonnement en plusieurs étapes, de codage et agentives avancées, offrant jusqu’à 20 % de précision en plus et une inférence 5 fois plus rapide que les modèles précédents. Les microservices BioNeMo NIM axés sur la santé, tels que ProteinMPNN, RFDiffusionet OpenFold2, répondent aux applications critiques en biologie numérique, en découverte de médicaments et en imagerie médicale, permettant aux chercheurs et aux cliniciens d’accélérer la science des protéines, la modélisation moléculaire et l’analyse génomique pour améliorer les soins aux patients et accélérer l’innovation scientifique.
L’IA Générative sur Windows 11 avec les PC RTX AI
L’IA générative transforme les logiciels PC avec des expériences entièrement nouvelles, des humains numériques aux assistants d’écriture, en passant par les agents intelligents et les outils créatifs. Les PC NVIDIA RTX AI facilitent l’expérimentation de l’IA générative et permettent d’obtenir de meilleures performances sur Windows 11. Lors de Microsoft Build, NVIDIA et Microsoft ont dévoilé une pile d’inférence d’IA pour simplifier le développement et améliorer les performances d’inférence pour les PC Windows 11. NVIDIA TensorRT a été repensé pour les PC RTX AI, combinant les performances de pointe de TensorRT avec une construction de moteur sur l’appareil et en temps réel, ainsi qu’une taille de package 8 fois plus petite pour un déploiement d’IA transparent sur plus de 100 millions de PC RTX AI. Annoncé lors de Microsoft Build, TensorRT pour RTX est pris en charge nativement par Windows ML, une nouvelle pile d’inférence qui offre aux développeurs d’applications une large compatibilité matérielle et des performances de pointe. TensorRT pour RTX est disponible dans la version préliminaire de Windows ML à partir d’aujourd’hui et sera disponible en tant que kit de développement logiciel autonome auprès de NVIDIA Developer en juin. Pour en savoir plus sur la façon dont TensorRT pour RTX et Windows ML rationalisent le développement de logiciels, explorez les nouveaux microservices NIM et les plans d’IA pour RTX et les mises à jour basées sur RTX d’Autodesk, Bilibili, Chaos, LM Studio et Topaz dans le blog RTX AI PC, et rejoignez la discussion communautaire sur Discord.
En conclusion, la collaboration entre NVIDIA et Microsoft marque une avancée significative dans le domaine de l’IA agentive. Grâce à l’intégration de technologies de pointe, les chercheurs et les développeurs disposent désormais d’outils puissants pour accélérer la découverte scientifique et stimuler l’innovation. De l’optimisation des simulations chimiques à l’amélioration des soins de santé, en passant par l’IA générative sur PC, cette alliance promet de transformer de nombreux secteurs, ouvrant ainsi de nouvelles perspectives pour l’avenir.