Nvidia GTC 2026 : Jensen Huang dévoile une feuille de route IA de $1 billions de dollars, de la Terre à l'espace



La conférence Nvidia GTC 2026 a officiellement débuté le 16 mars au SAP Center à San Jose, en Californie, avec le cofondateur et PDG Jensen Huang qui a prononcé un discours d'ouverture spectaculaire dépassant les deux heures. Vêtu de sa signature veste de cuir, Huang a présenté une vision panoramique de l'avenir de l'IA, introduisant de nouvelles architectures matérielles, des mises à jour logicielles révolutionnaires et une expansion ambitieuse vers l'espace.

L'économie des « jetons intelligents » et la perspective de $1 billions de dollars

Huang a ouvert en redéfinissant la trajectoire de l'IA, déclarant que l'industrie passe de l'« ère de l'entraînement des modèles » à l'« ère de l'inférence ». Il a introduit le concept de « jetons intelligents » comme unité fondamentale de l'économie de l'IA—chaque réponse générée par l'IA, image ou décision représente un jeton produit par ce qu'il a appelé les « usines d'IA » ou « usines de jetons ». Ce changement conceptuel repositionne les centres de données, les transformant de centres de coûts en installations de production générant des revenus.

L'échelle financière de cette vision est vertigineuse. Huang a annoncé que Nvidia voit des commandes d'achat pour ses systèmes actuels et de nouvelle génération—Blackwell et Vera Rubin—s'élevant à **$1 billions jusqu'en 2027**. Cela double la opportunité de $500 milliards de dollars que l'entreprise a projetée l'année dernière, signalant que la demande d'IA en entreprise reste insatiable malgré les incertitudes économiques plus larges.

Innovations matérielles : plateforme Vera Rubin et au-delà

Plateforme Vera Rubin AI Factory

Le point central des annonces matérielles était le dévoilement complet de la plateforme Vera Rubin, le successeur de Blackwell de Nvidia. Contrairement à une seule puce, Vera Rubin est positionnée comme une « plateforme usine d'IA » complète comprenant :

· Vera CPU : le nouveau processeur central conçu sur mesure par Nvidia, spécialement construit pour les charges de travail d'IA. Il fournit deux fois l'efficacité et est 50% plus rapide que les processeurs traditionnels.
· Rubin GPU : le processeur graphique de nouvelle génération, conçu pour gérer des modèles multimodaux avec des billions de paramètres.
· NVLink de sixième génération : technologie d'interconnexion avancée permettant à des centaines de GPU Rubin de fonctionner comme un seul énorme GPU virtuel.
· Commutateurs CPO : technologie optique intégrée co-emballée (CPO) qui remplace le câblage en cuivre traditionnel par la communication optique, réduisant considérablement la consommation d'énergie tout en augmentant la bande passante.

L'ensemble de la plateforme est refroidi par liquide et conçu pour le déploiement « d'usine d'IA », où les clients peuvent simplement connecter l'alimentation et les données pour commencer la production d'IA.

Rubin Ultra et l'architecture Feynman

Regardant plus loin, Huang a donné un aperçu de la plateforme Rubin Ultra présentant l'architecture du rack Kyber—une conception révolutionnaire où les plateaux de calcul sont positionnés verticalement pour augmenter la densité et réduire la latence. Kyber intégrera 144 GPU dans un système à l'échelle du rack, dont la livraison est attendue en 2027.

Encore plus loin, Huang a confirmé que Nvidia développe déjà l'architecture de nouvelle génération baptisée Feynman, nommée d'après le physicien Richard Feynman. Cette architecture utilisera des puces empilées 3D et de la mémoire HBM personnalisée, repoussant les limites de performance vers 2030.

Intégration stratégique de Groq : le moteur d'inférence LPU

L'une des annonces les plus importantes impliquait l'intégration par Nvidia de la technologie de Groq, la startup d'inférence IA dont la technologie Nvidia a obtenu une licence pour environ $20 milliards de dollars en décembre. La collaboration a produit l'unité de traitement du langage Nvidia Groq 3 (LPU), maintenant marquer simplement comme la puce d'inférence LPX.

Accélération de l'inférence de 35x

Le Groq 3 LPX est conçu spécifiquement pour l'inférence à faible latence—la phase critique où les modèles d'IA génèrent des réponses en temps réel. Huang a démontré comment l'architecture LPX fonctionne aux côtés des GPU Rubin grâce à une technique appelée « inférence découplée » :

· Les GPU gèrent l'étape de « préfill » (traitement des entrées utilisateur en parallèle)
· Les LPU gèrent l'étape de « décodage » (générant des jetons séquentiellement avec une latence minimale)

Cette division du travail résulte en une amélioration revendiquée de 35x en performance de jetons par watt lorsque les LPU Groq sont ajoutés aux systèmes Rubin. Le rack Groq 3 LPX contient 256 LPU et est conçu pour s'asseoir à côté des racks Vera Rubin dans les centres de données.

Huang a été pragmatique concernant le déploiement, suggérant que pour les charges de travail nécessitant un débit maximal, le pur Vera Rubin reste optimal. Cependant, pour la « génération de jetons d'engineering à haute valeur » et les applications de codage, l'ajout de LPU Groq à environ 25% d'un centre de données fournit des performances optimales.

Les puces LPX sont déjà en production volumétrique chez Samsung et devraient être expédiées au troisième trimestre 2026.

Logiciel et agents IA : NemoClaw et modèles ouverts

NemoClaw pour les agents IA en entreprise

S'appuyant sur le phénomène open-source OpenClaw—que Huang a noté comme étant devenu le projet open-source à la croissance la plus rapide de l'histoire—Nvidia a introduit NemoClaw, une plateforme prête pour l'entreprise permettant de déployer des agents IA.

La plateforme fournit une « pile de référence » complète qui télécharge automatiquement OpenClaw et construit des agents IA prêts pour la production avec des fonctionnalités de sécurité, de confidentialité et de gestion au niveau de l'entreprise. Cela positionne Nvidia pour faire concurrence aux offres d'OpenAI et d'autres fournisseurs de cloud sur le marché en croissance rapide de l'IA agentive.

Collaboration sur les modèles ouverts

Huang a annoncé l'« Alliance Nemotron », une collaboration avec les principaux laboratoires d'IA dont Mistral AI, Ai2, et d'autres pour développer des modèles de frontier ouverts. Cette initiative reflète l'engagement de Nvidia envers l'innovation ouverte, que Huang a encadré comme essentiel à la prolifération de l'IA dans chaque industrie.

Jeux et graphiques : DLSS 5

Les jeux restent une partie de l'héritage de Nvidia, et Huang a livré une mise à jour importante pour les joueurs avec DLSS 5. Décrit comme la « réussite la plus importante de l'entreprise en infographie depuis l'introduction du lancer de rayons en temps réel en 2018 », DLSS 5 exploite l'IA générative pour rendre des scènes de jeu entières en temps réel.

La technologie utilise des modèles d'IA pour générer l'éclairage et les matériaux photoréalistes, transformant effectivement le rendu de jeu en un problème d'inférence d'IA. Huang l'a comparé au moment « GPT » des graphiques. Les principaux éditeurs de jeux dont Capcom, Tencent et NetEase se sont engagés à soutenir DLSS 5, qui devrait être lancé à l'automne 2026 avec un support natif en 4K.

IA physique : véhicules autonomes et robotique

Expansion des véhicules autonomes

Le discours d'ouverture a présenté des mises à jour substantielles dans le transport autonome. Uber a annoncé des plans pour déployer une flotte alimentée par le logiciel Nvidia Drive AV dans 28 villes sur quatre continents d'ici 2028, commençant par Los Angeles et San Francisco en 2027.

Plusieurs grands constructeurs automobiles se sont engagés à construire des véhicules autonomes de niveau 4 sur la plateforme Nvidia Drive Hyperion, dont :

· Nissan
· BYD
· Geely
· Hyundai
· Isuzu (autobus autonomes, en partenariat avec Tier IV)

Huang a caractérisé les véhicules autonomes comme « potentiellement la première industrie de robotique d'une valeur de plusieurs billions de dollars », Nvidia fournissant l'infrastructure complète de l'entraînement au déploiement.

Collaboration avec Disney : le robot « Olaf »

Dans un moment charmant, Huang a été rejoint sur scène par un robot développé en collaboration avec Disney—une version robotique d'Olaf de La Reine des Neiges. Le robot a démontré une marche naturelle, des gestes et une interaction conversationnelle, présentant la plateforme Isaac Sim de Nvidia et les modules de robotique Jetson Thor.

Cette démonstration incarnait la vision « IA physique » de Nvidia—les systèmes d'IA qui ne traitent pas seulement l'information mais interagissent avec et opèrent dans le monde physique.

Exploration spatiale : Space-1 Vera Rubin

Peut-être l'annonce la plus futuriste était Space-1 Vera Rubin, un module informatique d'IA conçu pour le déploiement spatial. Construit pour résister à des conditions extrêmes de radiation et de température, ces modules peuvent être installés sur des satellites ou des stations spatiales.

Les implications sont profondes : les satellites équipés de Space-1 peuvent traiter l'imagerie et les données de capteurs en orbite plutôt que de transmettre des données brutes à la Terre. Un satellite météorologique pourrait identifier un ouragan en formation et émettre directement des avertissements, sans attendre le traitement au sol. Huang a décrit cela comme « construire l'architecture informatique complète de la Terre à l'espace ».

CUDA à 20 ans : célébrer un héritage

Tout au long du discours d'ouverture, Huang a réfléchi à l'investissement de 20 ans de Nvidia dans CUDA, la plateforme de calcul parallèle introduite en 2006. Ce qui a commencé comme un pari risqué sur l'informatique GPU est devenu la couche logicielle fondatrice pour toute l'industrie de l'IA.

« Vingt ans que nous faisons cette architecture—cette invention révolutionnaire », a déclaré Huang à l'audience. L'anniversaire de CUDA a rappelé l'engagement à long terme de Nvidia envers l'informatique accélérée, bien avant que l'IA devienne un phénomène grand public.

Réaction du marché et perspective analytique

Les actions Nvidia ont augmenté d'environ 2% pendant le discours d'ouverture, bien que les gains se soient modérés à une clôture de 1,65% alors que les investisseurs digéraient l'ampleur de la prévision de commandes de $1 billions de dollars. Les analystes ont suggéré que bien que le chiffre semblait dramatique, il pourrait s'aligner avec les attentes du consensus lorsqu'il est entièrement modélisé.

Wedbush Securities a caractérisé les perspectives de Nvidia comme « très optimistes », notant que l'entreprise encadre effectivement un marché adressable de $3 à $4 milliards de dollars en infrastructures d'IA d'ici 2030. Les analystes de Morgan Stanley ont observé que l'orientation explicite de Huang jusqu'en 2027 devrait aider les investisseurs à gagner de l'assurance concernant la durée du cycle d'investissement en IA.

La vue d'ensemble : la révolution industrielle de l'IA

Huang a conclu avec une vision panoramique : ce qui a commencé comme le moment « iPhone » pour l'IA il y a trois ans a évolué en une révolution industrielle à part entière. Les usines d'IA produisant des jetons intelligents deviendront aussi fondamentales à l'économie mondiale que les centrales électriques générant de l'électricité.

« Les coûts informatiques diminuent considérablement et l'innovation s'accélère exponentiellement », a déclaré Huang. « C'est maintenant le meilleur moment pour commencer à construire l'avenir ».

GTC 2026 continue jusqu'au 19 mars à San Jose, avec plus de 1 000 sessions, une formation pratique et un panel spécial sur les modèles frontier ouverts modéré par Huang le 18 mars. Pour ceux qui ne peuvent pas participer en personne, les sessions restent disponibles pour la participation virtuelle via la plateforme d'événement de Nvidia.
Voir l'original
post-image
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler