Descubre el plan global para potenciar el desarrollo de la inteligencia artificial y la computación de alto rendimiento en el mundo, según AMD

Compañías como Microsoft, Meta y OpenAI han incoporado la tecnología de esta empresa para acelerar la velocidad de sus modelos de IA

Guardar
Estos avances permiten que su
Estos avances permiten que su implementación no sea tan compleja y costosa. (Imagen Ilustrativa Infobae)

AMD ha presentado la serie de aceleradores Instinct MI350, que representa un avance en el procesamiento de inteligencia artificial, porque ofrece una mejora de hasta cuatro veces en comparación con generaciones anteriores y un aumento de hasta 35 veces en el rendimiento de inferencia.

Esta familia de aceleradores incluye las GPU y plataformas Instinct MI350X y MI355X. La versión MI355X, en particular, destaca por su eficiencia en la relación precio-rendimiento, generando hasta un 40% más de tokens por dólar frente a soluciones de la competencia, según datos de AMD.

Cómo mejora el desarrollo de inteligencia artificial y el rendimiento

La presentación de estos productos tuvo lugar durante el evento Advancing AI 2025, donde la empresa tecnológica detalló que la serie MI350 busca establecer un nuevo estándar en: rendimiento, eficiencia y escalabilidad, tanto en inteligencia artificial generativa como en computación de alto rendimiento.

Es una de sus desarrollos
Es una de sus desarrollos más recientes. (Foto: REUTERS/Max A. Cherney)

Entre las características técnicas más relevantes, la serie MI350 incorpora una capacidad de memoria de 288 GB HBM3E (proporcionada por Micron y Samsung Electronics) y un ancho de banda de hasta 8 TB/s.

Además, ofrece configuraciones flexibles de refrigeración, permitiendo tanto sistemas de aire como de refrigeración líquida directa.

Qué ventajas le ofrece a las empresas que trabajan con inteligencia artificial

La arquitectura de la serie MI350 admite hasta 64 GPU en un rack refrigerado por aire y hasta 128 GPU en un rack refrigerado por líquido directo, alcanzando un rendimiento de hasta 2,6 exaFLOPS en FP4/FP6.

Es prática para el desarrollo
Es prática para el desarrollo de modelos como el de Meta. (Foto: REUTERS/Dado Ruvic/Illustration)

Este nivel de escalabilidad permite a las organizaciones adaptar sus infraestructuras a las demandas de proyectos de inteligencia artificial de gran envergadura.

Asimismo, el motor de software abierto ROCm desempeña un papel central en la aceleración de la inteligencia artificial sobre estas plataformas. ROCm es compatible desde el primer día con modelos de gran relevancia como Llama, y en su próxima versión, ROCm 7, ofrecerá mejoras de inferencia superiores a 3,5 veces.

Además, ROCm incorpora tipos de datos avanzados como FP4 y algoritmos innovadores como FAv3, lo que permite un rendimiento de inteligencia artificial de última generación y soporte para frameworks de código abierto como vLLM y SGLang.

Cuál es el futuro de los desarrollos de AMD

Durante el evento Advancing AI 2025, AMD también mostró un adelanto de la serie Instinct MI400 y del rack de inteligencia artificial denominado Helios.

Su plan es desarrollar más
Su plan es desarrollar más aportes a la integración de IA en las empresas. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)

La combinación de estas tecnologías permitirá alcanzar hasta diez veces más rendimiento en la ejecución de inferencia sobre modelos Mixture of Experts, gracias a la integración de las CPU EPYC “Venice” basadas en la arquitectura Zen 6 y las tarjetas de red AMD Pensando “Vulcano”.

La infraestructura de rack de IA Helios, que estará disponible en 2026, ha sido diseñada para unificar el hardware líder de AMD (CPU EPYC “Venice”, GPU Instinct MI400 y NIC de IA Pensando “Vulcano”) junto con el software ROCm en una solución completamente integrada.

Helios soportará un dominio de escalado vertical de hasta 72 GPU serie MI400 con un ancho de banda de escalado vertical de 260 terabytes por segundo, compatible con Ultra Accelerator Link.

Por qué este plan de AMD representa un cambio en el desarrollo de la IA

La carrera en este sector
La carrera en este sector está en auge por que empresa da mejores productos. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)

En cuanto a las especificaciones de la próxima generación, la serie Instinct MI400 traerá un rendimiento de 40 petaFLOPS en FP4 y 20 petaFLOPS en FP8, junto con un ancho de banda de escalamiento horizontal de 300 GB/s.

Estas capacidades permitirán soluciones a nivel de rack completo, tanto para entrenamiento a gran escala como para inferencia distribuida, lo que será un avance considerable respecto a las generaciones anteriores.

El trabajo de AMD con la innovación en inteligencia artificial se refleja en la frecuencia de las actualizaciones de su ecosistema de software y hardware, así como en la integración de tecnologías avanzadas que buscan responder a las crecientes demandas del sector.