La inteligencia artificial vive un punto de inflexión en 2025 con el anuncio de Anthropic, desarrollador de los modelos Claude, que ampliará considerablemente su capacidad de cómputo a través de una alianza estratégica con Google Cloud, accediendo a hasta un millón de chips TPU y superando el gigavatio de potencia para 2026.
Cómo es la alianza entre Google y Anthropic
El acuerdo entre Anthropic y Google Cloud implicará una migración masiva de recursos hacia la infraestructura de la nube, con el acceso a grandes volúmenes de TPUs, la tecnología de aceleradores diseñada por Google para cargas específicas de inteligencia artificial.
De acuerdo con el comunicado oficial, la expansión representa una inversión de decenas de miles de millones de dólares y una escala inédita en la historia de la compañía, permitiendo superar el umbral del gigavatio de procesamiento en línea en apenas un año.

Esta capacidad favorecerá tanto el entrenamiento de modelos de lenguaje de última generación como la investigación en alineamiento y pruebas exhaustivas previas a los lanzamientos más ambiciosos.
La compañía tecnológica actualmente sirve a más de 300.000 clientes empresariales, cifra que incluye grandes cuentas corporativas cuyo volumen de ingresos recurrentes ha crecido casi siete veces en el último año.
De acuerdo con Krishna Rao, director financiero de Anthropic, el trato facilitará atender la demanda de grandes compañías y startups que ya confían en Claude para funciones críticas, mientras permite a la empresa posicionar sus modelos en la vanguardia de la industria.
Por parte de Google, Thomas Kurian, CEO de Google Cloud, recalcó que la elección de Anthropic subraya la eficiencia observada por sus equipos con las TPUs en los últimos años.
La séptima generación de estos chips, denominada Ironwood, representa la evolución más reciente del portafolio de aceleradores de Google y reafirma el compromiso del gigante tecnológico por mantener una oferta puntera y escalable para sus clientes de inteligencia artificial.

El enfoque computacional de Anthropic destaca frente a sus principales competidores, como OpenAI, que desarrolla centros de datos propios y trabaja en chips personalizados, o xAI de Elon Musk, cuyo clúster Colossus en Memphis marca otra estrategia de integración vertical.
Desde la compañía tecnológica han optado por no invertir directamente en la construcción de hardware propio, favoreciendo acuerdos flexibles con proveedores externos. Si bien esta táctica minimiza el riesgo financiero inmediato asociado a la infraestructura, también aumenta la dependencia respecto de la evolución de precios y contratos en la nube. Para la empresa de tecnología, esta decisión permite concentrarse en su especialidad: avanzar en los límites de la IA aplicada y comercial.
El modelo de Anthropic es, no obstante, diversificado. La compañía recurre no solo a las TPUs de Google, también a la plataforma Trainium de Amazon y a las GPUs de NVIDIA. Esta arquitectura multiplataforma posibilita ajustar cargas de trabajo, explorar distintas optimizaciones y evitar cuellos de botella en un entorno donde la competencia por recursos computacionales es cada día más feroz.
La compañía mantiene en paralelo una asociación estratégica con Amazon, su principal socio para el entrenamiento de modelos, y colabora en el desarrollo del Proyecto Rainier, que busca desplegar cientos de miles de chips de IA en varios centros de datos repartidos por Estados Unidos.
Qué son los TPUs y cuál es su importancia
Las TPUs (Tensor Processing Units) son chips desarrollados por Google y optimizados de forma exclusiva para acelerar tareas fundamentales en inteligencia artificial y aprendizaje profundo.
A diferencia de las CPUs convencionales o las GPUs tradicionales, las TPUs cuentan con una arquitectura centrada en la manipulación de tensores, estructuras de datos básicas de las redes neuronales.
Gracias a componentes como las matrices de multiplicadores (MXU), estos chips realizan cálculos de álgebra lineal y operaciones matriciales a una velocidad y eficiencia energética superiores, lo que reduce los tiempos de entrenamiento y permite desplegar modelos de escala cada vez mayor.
Hoy, las TPUs se ofrecen principalmente como servicio a través de Google Cloud. Las empresas y desarrolladores acceden virtualmente a una capacidad robusta sin requerir la compra directa de hardware, adaptándose así a escenarios de demanda variable y optimizando costos operativos.
El anuncio de Anthropic, que contempla utilizar hasta un millón de TPUs, refleja el avance acelerado de la industria de la IA y la intensificación de la competencia por recursos computacionales, en un momento en que la demanda de soluciones de inteligencia artificial de gran escala crece en todo el mundo.
Últimas Noticias
Estos son los destinos paradisiacos para viajar antes de finalizar 2025: tendencias
El auge de aplicaciones móviles permite a los viajeros latinoamericanos coordinar rutas activas, itinerarios personalizados y reservas directas en parajes naturales o enclaves culturales de alto impacto

Una familia usó ChatGPT y Claude para reducir una deuda médica de 195.000 a 33.000 dólares
Los modelos de lenguaje analizaron los códigos de facturación y hallaron múltiples irregularidades en los cobros hospitalarios

Estos son los mejores lugares de la casa para colocar el router Wifi
Pequeños cambios en la ubicación del dispositivo pueden potenciar la experiencia de navegación y eliminar zonas sin cobertura

El botón mágico del auto para pasar de modo híbrido a eléctrico en segundos
Cada una de estas formas de conducción se adapta a los trayectos y el tipo de carreta que se vaya a transitar

EA Sports FC 26 en PS5: conoce todos los detalles de la prueba a fondo de este ícono del fútbol
En Infobae Tecno hemos probado la última entrega de la saga con varias dificultades para entrar a los partidos




