Anthropic planea una importante expansión de su infraestructura de IA con hasta un millón de TPUs de Google para 2026, mejorando la capacidad computacional, apoyando su creciente base de clientes y avanzando en su estrategia de múltiples nubes.
La empresa de investigación y seguridad en IA Anthropic anunció planes para expandir su uso de tecnologías de Google Cloud, incluyendo hasta un millón de Unidades de Procesamiento Tensorial (TPUs), lo que aumentará sustancialmente su capacidad computacional para 2026.
Esta expansión está diseñada para apoyar la creciente base de clientes de la empresa, que supera los 300,000 negocios, y la creciente demanda de grandes cuentas, al tiempo que permite pruebas más extensas, investigación de alineación y despliegue responsable de sistemas de IA.
La empresa emplea una estrategia de computación multiplataforma que aprovecha los TPUs de Google, Trainium de Amazon y GPUs de NVIDIA para avanzar en las capacidades de sus modelos Claude, mantener asociaciones en la industria y asegurar un desarrollo escalable de IA. Anthropic continúa colaborando con Amazon en el Proyecto Rainier, un importante clúster de computación que abarca múltiples centros de datos en EE. UU., y planea invertir en capacidad adicional para mantenerse a la vanguardia de la investigación en IA.
Esta marca la expansión más extensa del uso de TPU por parte de Anthropic hasta la fecha y destaca el compromiso de la empresa con una estrategia de múltiples nubes. Si bien los TPUs ya formaban parte de su infraestructura, el próximo despliegue aumentará su escala.
Los analistas de la industria sugieren que el crecimiento de Anthropic podría contribuir con un 1-2% adicional a los ingresos de AWS en 2025, y el uso ampliado de TPUs podría representar un desafío competitivo para Trainium.
El acuerdo también reduce la dependencia de Anthropic de las GPU de Nvidia. Más allá de los TPUs, la empresa tendrá acceso a una gama más amplia de servicios de Google Cloud, lo que apoya aún más sus capacidades computacionales y operativas.
Avances Antropicos en las Capacidades de LLM
Anthropic es el desarrollador de una serie de modelos de lenguaje grandes (LLMs) bajo la marca Claude, que están diseñados para proporcionar fiabilidad, interpretabilidad y controlabilidad en sus resultados.
La compañía presentó recientemente Claude Sonnet 4.5, que representa su modelo de IA más avanzado hasta la fecha, con capacidades mejoradas en áreas como la codificación, el razonamiento científico y el análisis financiero. Este modelo ha demostrado la capacidad de mantener la atención en tareas complejas y de varios pasos durante períodos prolongados, logrando niveles de rendimiento que superan los de versiones anteriores.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Anthropic amplía la asociación con Google Cloud con un millón de TPUs para mejorar la infraestructura de IA
En breve
Anthropic planea una importante expansión de su infraestructura de IA con hasta un millón de TPUs de Google para 2026, mejorando la capacidad computacional, apoyando su creciente base de clientes y avanzando en su estrategia de múltiples nubes.
La empresa de investigación y seguridad en IA Anthropic anunció planes para expandir su uso de tecnologías de Google Cloud, incluyendo hasta un millón de Unidades de Procesamiento Tensorial (TPUs), lo que aumentará sustancialmente su capacidad computacional para 2026.
Esta expansión está diseñada para apoyar la creciente base de clientes de la empresa, que supera los 300,000 negocios, y la creciente demanda de grandes cuentas, al tiempo que permite pruebas más extensas, investigación de alineación y despliegue responsable de sistemas de IA.
La empresa emplea una estrategia de computación multiplataforma que aprovecha los TPUs de Google, Trainium de Amazon y GPUs de NVIDIA para avanzar en las capacidades de sus modelos Claude, mantener asociaciones en la industria y asegurar un desarrollo escalable de IA. Anthropic continúa colaborando con Amazon en el Proyecto Rainier, un importante clúster de computación que abarca múltiples centros de datos en EE. UU., y planea invertir en capacidad adicional para mantenerse a la vanguardia de la investigación en IA.
Esta marca la expansión más extensa del uso de TPU por parte de Anthropic hasta la fecha y destaca el compromiso de la empresa con una estrategia de múltiples nubes. Si bien los TPUs ya formaban parte de su infraestructura, el próximo despliegue aumentará su escala.
Los analistas de la industria sugieren que el crecimiento de Anthropic podría contribuir con un 1-2% adicional a los ingresos de AWS en 2025, y el uso ampliado de TPUs podría representar un desafío competitivo para Trainium.
El acuerdo también reduce la dependencia de Anthropic de las GPU de Nvidia. Más allá de los TPUs, la empresa tendrá acceso a una gama más amplia de servicios de Google Cloud, lo que apoya aún más sus capacidades computacionales y operativas.
Avances Antropicos en las Capacidades de LLM
Anthropic es el desarrollador de una serie de modelos de lenguaje grandes (LLMs) bajo la marca Claude, que están diseñados para proporcionar fiabilidad, interpretabilidad y controlabilidad en sus resultados.
La compañía presentó recientemente Claude Sonnet 4.5, que representa su modelo de IA más avanzado hasta la fecha, con capacidades mejoradas en áreas como la codificación, el razonamiento científico y el análisis financiero. Este modelo ha demostrado la capacidad de mantener la atención en tareas complejas y de varios pasos durante períodos prolongados, logrando niveles de rendimiento que superan los de versiones anteriores.