
Microsoft ha tomado una decisión estratégica para acelerar su desarrollo en inteligencia artificial al planificar la integración de semiconductores personalizados diseñados por OpenAI en su oferta de hardware. Gracias a su colaboración renovada con el creador de ChatGPT, la compañía obtendrá acceso exclusivo a los avances en chips, modelos y sistemas desarrollados para la compañía tecnológica especializada en IA.
Acuerdo entre Microsoft y OpenAI para acelerar la innovación en semiconductores IA
Según las declaraciones de Satya Nadella, CEO de Microsoft, en un reciente podcast, la empresa aprovechará la innovación de OpenAI “incluso a nivel de sistema” y “obtendrá acceso a todo eso”. La organización de Redmond planea “incorporar lo que crean [OpenAI] para ellos” y ampliar esas soluciones para fortalecer su propio hardware.
El acuerdo revisado entre ambas partes garantiza a Microsoft acceso a los modelos de OpenAI hasta el año 2032 y a la investigación de vanguardia hasta 2030 —o hasta la consecución de la inteligencia artificial general, según la evaluación de un panel de expertos—. Así lo dio a conocer Bloomberg.
Es pertinente señalar que el hardware de consumo de OpenAI queda fuera de los derechos de uso intelectual, según lo pactado.
OpenAI, por su parte, colabora con Broadcom en el diseño de chips y hardware de red optimizados para IA. Mientras tanto, aunque Microsoft ha dado algunos pasos en el desarrollo de sus propios chips, aún no ha igualado el éxito de empresas rivales en la nube, como Google.
Con este acuerdo, Microsoft busca cerrar esa brecha, aprovechando las innovaciones de la empresa de inteligencia artificial para aplicar los diseños de chips a sus propias necesidades en nube y fortificar su posición en IA.
Perspectiva de la colaboración Microsoft-OpenAI en el desarrollo de chips
La asociación con OpenAI representa una oportunidad clave para Microsoft: le permite no solo beneficiarse de la última tecnología en semiconductores, sino también adaptar estas soluciones a su infraestructura de nube, multiplicando el impacto comercial y la eficiencia operativa.
El respaldo de Broadcom en el proceso de diseño subraya la apuesta conjunta por la creación de hardware específicamente adaptado a los desafíos de la inteligencia artificial de próxima generación.
Este movimiento estratégico fortalece la posición de Microsoft en la competencia global por la supremacía de la IA, garantizándole acceso inmediato a los avances del laboratorio más innovador del sector y situándolo un paso por delante en la carrera por liderar los servicios y plataformas inteligentes del futuro.
Esta es la “superfábrica de IA” de Microsoft
La reciente integración de dos grandes centros de datos de Microsoft ubicados en Wisconsin y Atlanta ha dado como resultado la creación de lo que la empresa denomina su primera “superfábrica de IA”.
Esta infraestructura innovadora representa un salto en la eficiencia del entrenamiento de modelos de inteligencia artificial, logrando reducir procesos que solían tomar meses a apenas unas semanas, y posicionando a Microsoft a la vanguardia en la aceleración del desarrollo de IA a gran escala.
Esta superfábrica responde a la demanda creciente de recursos computacionales necesarios para entrenar modelos avanzados de inteligencia artificial. Basada en la arquitectura Fairwater, la instalación combina varios centros de datos distribuidos pero integrados como una sola unidad poderosa.

Así, tanto equipos de OpenAI como el grupo de Superinteligencia de Microsoft pueden acceder a recursos de procesamiento punteros para sus labores de entrenamiento.
El gerente general de infraestructura Azure, Alistair Speirs, señaló que el objetivo central es “construir una red distribuida que pueda actuar como un superordenador virtual para abordar los mayores desafíos del mundo de formas que no serían posibles en una sola instalación”.
Este sistema incorpora varias innovaciones técnicas clave. Utiliza sistemas NVIDIA GB200 NVL72 a nivel de rack, capaces de agrupar cientos de miles de GPUs NVIDIA Blackwell para ofrecer el rendimiento más alto por rack actualmente disponible en plataformas cloud.
El diseño en dos niveles maximiza la densidad de GPUs, y un sistema avanzado de refrigeración líquida garantiza mínimo consumo de agua. Además, una red dedicada de fibra óptica denominada AI Wide Area Network (AI WAN) enlaza los centros de datos, facilitando el tráfico de datos a gran velocidad.
Últimas Noticias
Tether: cuál es la cotización de esta criptomoneda
Esta moneda digital se ha convertido en la tercera más usada a nivel mundial detrás de bitcoin y ethereum

ChatGPT revoluciona las citas online y se convierte en la nueva tendencia del chatfishing
Según The Independent, la principal preocupación en las plataformas de romance online ya no es la suplantación de identidad, sino descubrir que los mensajes provienen de un asistente de inteligencia artificial

Crisis en la computación cuántica: histórica caída de las acciones de empresas genera dudas sobre su futuro
Rigetti Computing, D-Wave Quantum y Quantum Computing pierden más del 50% de su valor bursátil en noviembre

Cinco aplicaciones gratuitas para identificar canciones en Android
Entre las opciones gratuitas más populares, algunas destacan por sus funciones adicionales y precisión en la identificación de música

Glosario de tecnología: qué significa MicroLED
Conocer el significado de nuevas palabras ayudará a incrementar el conocimiento y vocabulario por igual



