Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Je suis de près les mouvements de Nvidia, et il y a quelque chose d'important qui change dans la façon dont le marché des puces d'intelligence artificielle évolue en ce moment.
Pendant des années, Nvidia a dominé avec ses puces GPU conçues pour une puissance d'entraînement brute—on peut la comparer à un moteur de course de dragster. Mais voici ce qui change : l'industrie se tourne fortement vers l'inférence, et c'est un tout autre jeu. L'inférence nécessite de l'efficacité et un raisonnement soutenu, pas seulement une puissance maximale. C'est plus comme naviguer sur des routes de montagne que de rouler en ligne droite.
Rubin est la réponse de Nvidia à ce changement, et ce n'est pas simplement une autre puce. C'est en réalité une plateforme complète—six composants travaillant ensemble comme un superordinateur d'IA, combinant CPU, GPU, matériel réseau. Le serveur Vera Rubin NVL72 peut effectuer des calculs d'inférence à seulement 10 % du coût par jeton par rapport à leur modèle phare Blackwell actuel. C'est ce genre d'efficacité qui excite les acheteurs d'entreprise.
Ce qui est fou, c'est que les hyperscalers sont déjà en train de se positionner. Nvidia a mentionné en novembre qu'ils avaient $500 milliards de commandes jusqu'en 2026, et ce chiffre monte probablement. Chaque grande entreprise d'IA prévoit de dépenser encore plus cette année, ce qui suggère que la demande pour les puces d'intelligence artificielle ne ralentit pas—elle change simplement de forme.
Wall Street est plutôt optimiste à ce sujet. Les analystes prévoient que le chiffre d'affaires passera de $187 milliards à environ $327 milliards cette année fiscale, puis à $419 milliards l'année prochaine. Nvidia a aussi un historique de dépassement constant des estimations, donc les chiffres réels pourraient être encore plus élevés.
Maintenant, la question de la valorisation. L'action se négocie à environ 25 fois ses ventes en ce moment, ce qui paraît cher jusqu'à ce qu'on regarde à plus long terme. Avec le chiffre d'affaires prévu pour l'année prochaine, cela tombe à 11 fois les ventes. C'est une différence significative si l'exécution reste sur la bonne voie.
Mais il y a de vrais risques. Nvidia dépend fortement d'une clientèle concentrée—si un ou deux hyperscalers réduisent leurs dépenses, ces estimations peuvent rapidement s'inverser. De plus, la concurrence s'intensifie. Broadcom a déjà réussi avec des solutions de puces d'IA sur mesure pour certains acteurs, et d'autres construisent aussi des alternatives.
Le consensus semble être que Nvidia reste dominant à long terme grâce à sa base installée et à la croissance globale de l'IA. Mais beaucoup d'investisseurs intelligents attendent l'appel de résultats pour voir ce que la direction dit des perspectives avant de prendre des décisions. Ça me paraît logique—il n'y a pas d'urgence quand tout ce momentum est déjà intégré dans le prix.