Anthropic prévoit une expansion majeure de son infrastructure IA avec jusqu'à un million de TPUs Google d'ici 2026, renforçant sa capacité de calcul, soutenant sa clientèle en croissance et faisant progresser sa stratégie multi-cloud.
La société de recherche et de sécurité en intelligence artificielle Anthropic a annoncé des plans pour élargir son utilisation des technologies Google Cloud, y compris jusqu'à un million d'unités de traitement Tensor (TPUs), ce qui augmentera considérablement sa capacité de calcul d'ici 2026.
Cette expansion est conçue pour soutenir la base de clients en croissance de l'entreprise, qui compte plus de 300 000 entreprises, et la demande croissante des grands comptes, tout en permettant des tests plus étendus, des recherches d'alignement et un déploiement responsable des systèmes d'IA.
L'entreprise adopte une stratégie de calcul multi-plateforme qui tire parti des TPU de Google, des Trainium d'Amazon et des GPU NVIDIA pour faire progresser les capacités de ses modèles Claude, maintenir des partenariats dans l'industrie et garantir un développement de l'IA évolutif. Anthropic continue de collaborer avec Amazon sur le projet Rainier, un important cluster de calcul s'étendant sur plusieurs centres de données aux États-Unis, et prévoit d'investir dans des capacités supplémentaires pour rester à la pointe de la recherche en IA.
Cela marque l'expansion la plus vaste de l'utilisation des TPU par Anthropic à ce jour et souligne l'engagement de l'entreprise envers une stratégie multi-cloud. Bien que les TPU fassent déjà partie de son infrastructure, le déploiement à venir augmentera leur échelle.
Les analystes de l'industrie suggèrent que la croissance d'Anthropic pourrait contribuer à hauteur de 1 à 2 % de revenus supplémentaires pour AWS en 2025, et l'utilisation accrue des TPU pourrait représenter un défi concurrentiel pour Trainium.
L'accord réduit également la dépendance d'Anthropic aux GPU Nvidia. Au-delà des TPU, l'entreprise aura accès à un éventail plus large de services Google Cloud, soutenant ainsi davantage ses capacités computationnelles et opérationnelles.
Les avancées anthropiques dans les capacités des LLM
Anthropic est le développeur d'une série de grands modèles de langage (LLMs) sous la marque Claude, qui sont conçus pour offrir fiabilité, interprétabilité et contrôlabilité dans leurs résultats.
La société a récemment introduit Claude Sonnet 4.5, représentant son modèle d'IA le plus avancé à ce jour, avec des capacités améliorées dans des domaines tels que la programmation, le raisonnement scientifique et l'analyse financière. Ce modèle a montré la capacité de maintenir l'attention sur des tâches complexes et à étapes multiples sur de longues durées, atteignant des niveaux de performance qui dépassent ceux des versions antérieures.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Anthropic étend son partenariat avec Google Cloud avec un million de TPUs pour renforcer l'infrastructure d'IA
En bref
Anthropic prévoit une expansion majeure de son infrastructure IA avec jusqu'à un million de TPUs Google d'ici 2026, renforçant sa capacité de calcul, soutenant sa clientèle en croissance et faisant progresser sa stratégie multi-cloud.
La société de recherche et de sécurité en intelligence artificielle Anthropic a annoncé des plans pour élargir son utilisation des technologies Google Cloud, y compris jusqu'à un million d'unités de traitement Tensor (TPUs), ce qui augmentera considérablement sa capacité de calcul d'ici 2026.
Cette expansion est conçue pour soutenir la base de clients en croissance de l'entreprise, qui compte plus de 300 000 entreprises, et la demande croissante des grands comptes, tout en permettant des tests plus étendus, des recherches d'alignement et un déploiement responsable des systèmes d'IA.
L'entreprise adopte une stratégie de calcul multi-plateforme qui tire parti des TPU de Google, des Trainium d'Amazon et des GPU NVIDIA pour faire progresser les capacités de ses modèles Claude, maintenir des partenariats dans l'industrie et garantir un développement de l'IA évolutif. Anthropic continue de collaborer avec Amazon sur le projet Rainier, un important cluster de calcul s'étendant sur plusieurs centres de données aux États-Unis, et prévoit d'investir dans des capacités supplémentaires pour rester à la pointe de la recherche en IA.
Cela marque l'expansion la plus vaste de l'utilisation des TPU par Anthropic à ce jour et souligne l'engagement de l'entreprise envers une stratégie multi-cloud. Bien que les TPU fassent déjà partie de son infrastructure, le déploiement à venir augmentera leur échelle.
Les analystes de l'industrie suggèrent que la croissance d'Anthropic pourrait contribuer à hauteur de 1 à 2 % de revenus supplémentaires pour AWS en 2025, et l'utilisation accrue des TPU pourrait représenter un défi concurrentiel pour Trainium.
L'accord réduit également la dépendance d'Anthropic aux GPU Nvidia. Au-delà des TPU, l'entreprise aura accès à un éventail plus large de services Google Cloud, soutenant ainsi davantage ses capacités computationnelles et opérationnelles.
Les avancées anthropiques dans les capacités des LLM
Anthropic est le développeur d'une série de grands modèles de langage (LLMs) sous la marque Claude, qui sont conçus pour offrir fiabilité, interprétabilité et contrôlabilité dans leurs résultats.
La société a récemment introduit Claude Sonnet 4.5, représentant son modèle d'IA le plus avancé à ce jour, avec des capacités améliorées dans des domaines tels que la programmation, le raisonnement scientifique et l'analyse financière. Ce modèle a montré la capacité de maintenir l'attention sur des tâches complexes et à étapes multiples sur de longues durées, atteignant des niveaux de performance qui dépassent ceux des versions antérieures.