Nvidia estrena familia de modelos abiertos Nemotron 3, diseñada para desarrollar sistemas de agentes de IA precisos

La empresa estadounidense lanza versiones optimizadas para desarrolladores, con tres tamaños, arquitectura híbrida y alto rendimiento, permitiendo a las compañías escalar aplicaciones multiagente, mejorar la transparencia y reducir el costo computacional en diversos sectores

Guardar

La compañía estadounidense ha destacado que Nemotron 3 Nano, la versión más compacta de la nueva familia Nemotron 3, ofrece un rendimiento de tokens hasta cuatro veces superior en comparación con la generación anterior Nemotron 2 Nano y permite una optimización significativa de los recursos necesarios. Esta innovación responde a la demanda creciente de sistemas de inteligencia artificial (IA) multiagente capaces de adaptarse a distintos volúmenes de trabajo, al tiempo que se reduce el coste computacional y se mantiene la precisión en las tareas. Nvidia, según informó el medio, presentó la plataforma Nemotron 3 como un modelo abierto que busca facilitar el desarrollo y la implementación de agentes de IA “más confiables a escala”, abordando los principales desafíos que enfrentan las empresas al migrar de chatbots convencionales a sistemas colaborativos de múltiples agentes.

De acuerdo con los detalles publicados por Nvidia en su blog, Nemotron 3 constituye una nueva familia de modelos abiertos de IA orientada al diseño de sistemas inteligentes que van más allá del procesamiento tradicional para incorporar arquitecturas pensadas en el trabajo simultáneo de múltiples agentes. Según reportó la compañía, la familia está compuesta por tres modelos diferenciados por tamaño y capacidad: Nemotron 3 Nano, Super y Ultra. Estos modelos emplean una arquitectura híbrida de mezcla de expertos (MoE), lo que permite seleccionar solo los componentes requeridos para cada tarea, optimizando la ejecución en entornos donde la colaboración y la especialización de agentes resultan fundamentales.

Tal como consignó la empresa, cada versión de Nemotron 3 se adapta a necesidades específicas. Nemotron 3 Nano opera con 30.000 millones de parámetros activos y está orientada a tareas precisas y eficientes, enfocadas en la depuración de software, resumir contenido, organizar flujos de asistentes de IA y facilitar la recuperación de información, siempre buscando minimizar el coste de inferencia. En palabras de Nvidia, “Nemotron 3 Nano recuerda más, lo que lo hace más preciso y capaz de conectar información en tareas largas y de varios pasos”.

El modelo intermedio, Nemotron 3 Super, incluye alrededor de 100.000 millones de parámetros y puede activar hasta 10.000 millones por token. Según informó Nvidia, este tamaño apunta a aplicaciones donde interactúan múltiples agentes de IA, incrementando la capacidad de colaboración sin comprometer la eficiencia del sistema. Por otra parte, la versión más robusta, Nemotron 3 Ultra, integra aproximadamente 500.000 millones de parámetros y utiliza hasta 50.000 millones activos por token para afrontar procesos más complejos y exigentes.

El medio detalló que tanto Nemotron 3 Super como Ultra emplean el formato de entrenamiento NVFP4 de 4 bits de Nvidia, basado en la arquitectura Blackwell. Este sistema contribuye a una drástica reducción de los requisitos de memoria y acelera el proceso de entrenamiento de los modelos, facilitando la adopción de IA avanzada en infraestructuras empresariales.

Durante la presentación, Nvidia subrayó distintos retos que enfrentan las compañías al pasar de chatbots de un solo modelo a la utilización de sistemas multiagente. Indicó que el cambio puede provocar una sobrecarga de comunicación, desvío de contexto y mayores costos en la inferencia. Por esta razón, la firma recalcó la importancia de desarrollar soluciones transparentes, que permitan evaluar con claridad el funcionamiento de los modelos, fomentando la confianza en los procesos de automatización y la gestión inteligente de los flujos de trabajo.

El fundador y director ejecutivo de Nvidia, Jensen Huang, señaló que “con Nemotron, estamos transformando la IA avanzada en una plataforma abierta que ofrece a los desarrolladores la transparencia y la eficiencia que necesitan para crear sistemas agénticos a escala”. Según publicó la empresa, la disponibilidad del modelo Nemotron 3 Nano ya se ha concretado a través de plataformas como Hugging Face, proveedores de servicios de inferencia, y distintas soluciones empresariales e infraestructuras de datos. Este modelo también puede implementarse en Amazon Bedrock y es compatible con entornos como Google Cloud, CoreWeave y Microsoft Foundry, además de estar disponible como microservicio dentro de Nvidia NIM.

Por su parte, publicó Nvidia, las versiones Nemotron 3 Super y Nemotron 3 Ultra se pondrán a disposición de usuarios y empresas durante la primera mitad de 2026, ampliando así las oportunidades para que organizaciones de distintos sectores puedan escalar la implementación de IA multiagente bajo condiciones de transparencia, eficiencia y reducción de costos.

Al presentar estos modelos, Nvidia expuso el objetivo de dinamizar y especializar la IA en procesos industriales y empresariales, atendiendo a la complejidad y diversidad de las tareas que enfrentan estas organizaciones. La compañía enfatizó la flexibilidad de la familia Nemotron 3, ya que permite elegir el tamaño y la configuración más adecuada a cada carga de trabajo, garantizando que los desarrolladores tengan acceso a soluciones adaptadas a distintas necesidades y volúmenes de procesamiento.

Según reportó Nvidia, la arquitectura de mezcla de expertos en Nemotron 3 otorga mayor precisión en la conexión y el uso de información relevante para tareas extensas y de múltiples pasos. Esto representa un avance respecto al manejo de información y contextos en sistemas de IA, reduciendo la dispersión y manteniendo la coherencia en tareas prolongadas, condición relevante para entornos colaborativos o industriales.

En suma, con el lanzamiento de la familia Nemotron 3, Nvidia refuerza su apuesta por el desarrollo de herramientas abiertas que sirvan a empresas y desarrolladores para escalar aplicaciones y automatizar procesos, al tiempo que mantienen control sobre costos y garantizan niveles altos de transparencia y rendimiento. La apertura y especialización de estos modelos, según ha remarcado la propia compañía, responde a la evolución y complejidad creciente del uso de inteligencia artificial en el ámbito profesional y productivo, donde se requiere gestionar grandes volúmenes de información de forma ágil y confiable.