Anthropic usará hasta un millón de chips TPUs de Google: la carrera de la IA entra en una nueva fase

El acuerdo con Google Cloud representa una inversión multimillonaria, refuerza la ventaja tecnológica de Anthropic y redefine el acceso a recursos clave en la competencia internacional de IA

Guardar
Anthropic desafía a la industria:
Anthropic desafía a la industria: usará un millón de chips TPU de Google Cloud para potenciar la IA - REUTERS/Dado Ruvic/Illustration/File Photo

La inteligencia artificial vive un punto de inflexión en 2025 con el anuncio de Anthropic, desarrollador de los modelos Claude, que ampliará considerablemente su capacidad de cómputo a través de una alianza estratégica con Google Cloud, accediendo a hasta un millón de chips TPU y superando el gigavatio de potencia para 2026.

Cómo es la alianza entre Google y Anthropic

El acuerdo entre Anthropic y Google Cloud implicará una migración masiva de recursos hacia la infraestructura de la nube, con el acceso a grandes volúmenes de TPUs, la tecnología de aceleradores diseñada por Google para cargas específicas de inteligencia artificial.

De acuerdo con el comunicado oficial, la expansión representa una inversión de decenas de miles de millones de dólares y una escala inédita en la historia de la compañía, permitiendo superar el umbral del gigavatio de procesamiento en línea en apenas un año.

Un acuerdo histórico con Google
Un acuerdo histórico con Google Cloud impulsan la era de la inteligencia artificial a gran escala - REUTERS/Annegret Hilse/File Photo

Esta capacidad favorecerá tanto el entrenamiento de modelos de lenguaje de última generación como la investigación en alineamiento y pruebas exhaustivas previas a los lanzamientos más ambiciosos.

La compañía tecnológica actualmente sirve a más de 300.000 clientes empresariales, cifra que incluye grandes cuentas corporativas cuyo volumen de ingresos recurrentes ha crecido casi siete veces en el último año.

De acuerdo con Krishna Rao, director financiero de Anthropic, el trato facilitará atender la demanda de grandes compañías y startups que ya confían en Claude para funciones críticas, mientras permite a la empresa posicionar sus modelos en la vanguardia de la industria.

Por parte de Google, Thomas Kurian, CEO de Google Cloud, recalcó que la elección de Anthropic subraya la eficiencia observada por sus equipos con las TPUs en los últimos años.

La séptima generación de estos chips, denominada Ironwood, representa la evolución más reciente del portafolio de aceleradores de Google y reafirma el compromiso del gigante tecnológico por mantener una oferta puntera y escalable para sus clientes de inteligencia artificial.

La alianza permitirá migrar recursos
La alianza permitirá migrar recursos masivos a la nube y entrenar nuevos modelos avanzados, mientras el sector compite ferozmente por el poder computacional que define el futuro de la IA - (Imagen ilustrativa Infobae)

El enfoque computacional de Anthropic destaca frente a sus principales competidores, como OpenAI, que desarrolla centros de datos propios y trabaja en chips personalizados, o xAI de Elon Musk, cuyo clúster Colossus en Memphis marca otra estrategia de integración vertical.

Desde la compañía tecnológica han optado por no invertir directamente en la construcción de hardware propio, favoreciendo acuerdos flexibles con proveedores externos. Si bien esta táctica minimiza el riesgo financiero inmediato asociado a la infraestructura, también aumenta la dependencia respecto de la evolución de precios y contratos en la nube. Para la empresa de tecnología, esta decisión permite concentrarse en su especialidad: avanzar en los límites de la IA aplicada y comercial.

El modelo de Anthropic es, no obstante, diversificado. La compañía recurre no solo a las TPUs de Google, también a la plataforma Trainium de Amazon y a las GPUs de NVIDIA. Esta arquitectura multiplataforma posibilita ajustar cargas de trabajo, explorar distintas optimizaciones y evitar cuellos de botella en un entorno donde la competencia por recursos computacionales es cada día más feroz.

La compañía mantiene en paralelo una asociación estratégica con Amazon, su principal socio para el entrenamiento de modelos, y colabora en el desarrollo del Proyecto Rainier, que busca desplegar cientos de miles de chips de IA en varios centros de datos repartidos por Estados Unidos.

Qué son los TPUs y cuál es su importancia

Su colaboración con Google y
Su colaboración con Google y Amazon posiciona a la firma entre los principales jugadores del sector, apostando por flexibilidad y escalabilidad para liderar el desarrollo de inteligencia artificial - REUTERS/Albert Gea/File Photo

Las TPUs (Tensor Processing Units) son chips desarrollados por Google y optimizados de forma exclusiva para acelerar tareas fundamentales en inteligencia artificial y aprendizaje profundo.

A diferencia de las CPUs convencionales o las GPUs tradicionales, las TPUs cuentan con una arquitectura centrada en la manipulación de tensores, estructuras de datos básicas de las redes neuronales.

Gracias a componentes como las matrices de multiplicadores (MXU), estos chips realizan cálculos de álgebra lineal y operaciones matriciales a una velocidad y eficiencia energética superiores, lo que reduce los tiempos de entrenamiento y permite desplegar modelos de escala cada vez mayor.

Hoy, las TPUs se ofrecen principalmente como servicio a través de Google Cloud. Las empresas y desarrolladores acceden virtualmente a una capacidad robusta sin requerir la compra directa de hardware, adaptándose así a escenarios de demanda variable y optimizando costos operativos.

El anuncio de Anthropic, que contempla utilizar hasta un millón de TPUs, refleja el avance acelerado de la industria de la IA y la intensificación de la competencia por recursos computacionales, en un momento en que la demanda de soluciones de inteligencia artificial de gran escala crece en todo el mundo.