Guardar
Qualcomm lanzó los chips AI200
Qualcomm lanzó los chips AI200 y AI250, creados para optimizar el rendimiento de centros de datos enfocados en inteligencia artificial. REUTERS/Dado Ruvic/Illustration

La empresa tecnológica Qualcomm presentó dos nuevos chips, AI200 y AI250, diseñados especialmente para impulsar el trabajo en centros de datos orientados a inteligencia artificial.

Tras el anuncio, las acciones de la compañía aumentaron un 21,9% en el Nasdaq, el segundo mayor mercado de valores electrónico de Estados Unidos.

Con estos lanzamientos, Qualcomm amplía su oferta más allá del mercado de smartphones e ingresa en competencia directa con Nvidia y AMD en el sector de mayor crecimiento: el de chips especializados en inteligencia artificial.

“Con Qualcomm AI200 y AI250, ampliamos las posibilidades de la inferencia de IA a escala de rack. Estas soluciones de infraestructura ofrecen a los clientes la posibilidad de aplicar IA generativa con un coste total de propiedad (TCO) muy bajo, manteniendo la flexibilidad y la seguridad que demandan los centros de datos modernos”, afirmó la compañía.

Según la compañía, estos dos
Según la compañía, estos dos nuevos lanzamientos ofrecen mayor rendimiento para centros de datos especializados en IA. (Qualcomm)

Cómo son los nuevos chips de Qualcomm

El chip AI200 se caracteriza porque puede manejar tareas complejas de inteligencia artificial, como entender o generar texto e imágenes, utilizando una gran cantidad de memoria (hasta 768 GB por tarjeta).

Esto permite procesar información más rápido y con menos coste para las empresas que lo usen. Además, su diseño facilita que varios chips trabajen juntos, ofreciendo flexibilidad para adaptar la capacidad según las necesidades, de acuerdo con lo que explica Qualcomm.

El AI250 presenta una nueva tecnología que permite que los datos se transfieran mucho más rápido y el consumo de energía sea mucho menor. Esto significa que las empresas podrán realizar tareas de inteligencia artificial de forma más eficiente y gastando menos en electricidad.

Ambos chips tienen sistemas de enfriamiento con líquido para evitar el sobrecalentamiento, conexiones rápidas para expandirse fácilmente y medidas especiales de seguridad para proteger la información.

Ambos procesadores incluyen enfriamiento líquido,
Ambos procesadores incluyen enfriamiento líquido, conexiones de alta velocidad y sistemas de seguridad para proteger los datos. (Imagen Ilustrativa Infobae)

Según la empresa tecnológica, están pensados para ser fáciles de instalar y de gestionar, incluso para quienes ya tienen sistemas con otras marcas.

“Los desarrolladores se benefician de la integración fluida de modelos y la implementación con un solo clic de los modelos Hugging Face a través de la biblioteca Efficient Transformers de Qualcomm Technologies y la suite Qualcomm AI Inference”, explican.

Cuentan con un software que hace más sencilla su integración con las principales plataformas de inteligencia artificial. Se espera que el AI200 esté disponible para las empresas en 2026 y el AI250 en 2027.

Nvidia cuenta con chips de
Nvidia cuenta con chips de IA para centros de datos, como los modelos DGX A100 y H100. REUTERS/Dado Ruvic/Illustration/File Photo

Qué chips similares han presentado Nvidia y AMD

Nvidia ha desarrollado varios chips de inteligencia artificial para centros de datos. Entre ellos destacan los modelos DGX A100 y H100.

La empresa continuó su apuesta tecnológica con los chips H200, B300 y GB300. Para potenciar aún más el rendimiento, ofrece servidores HGX, como el HGX H200 y el HGX B300, que agrupan ocho chips en una sola unidad.

Por su parte, AMD lanzó en junio de 2023 su chip MI300, orientado al entrenamiento de inteligencia artificial, y compite con Nvidia por la cuota de mercado en este segmento.

AMD presentó la serie MI350,
AMD presentó la serie MI350, sucesora del MI300 y competidora directa del H200 de Nvidia. REUTERS/Dado Ruvic/Illustration/File Photo

Recientemente, AMD presentó la serie MI350 como sucesora del MI300 y como rival directo del chip H200 de Nvidia. Además, AMD asegura que su modelo MI325X ofrece el mejor rendimiento del mercado para tareas de inferencia de IA.

AMD también colabora con empresas especializadas en aprendizaje automático, como Hugging Face.

Qué papel cumple un chip en un centro de datos

Un chip en un centro de datos es fundamental para procesar y gestionar grandes volúmenes de información. Estas piezas electrónicas actúan como el “cerebro” de los servidores, ejecutando cálculos, análisis y tareas de inteligencia artificial de forma rápida y eficiente.

Gracias a los chips, los centros de datos pueden ofrecer servicios como almacenamiento en la nube, recomendaciones personalizadas y procesamiento de datos en tiempo real.