
La inteligencia artificial enfrenta uno de sus mayores desafíos: lograr aprendizaje continuo y retener información a largo plazo, de manera similar al funcionamiento del cerebro humano. Para abordar esta limitación, Google Research ha presentado Nested Learning (Aprendizaje Anidado), un nuevo paradigma de aprendizaje automático inspirado en la dinámica de las ondas cerebrales.
Este enfoque busca dotar a los modelos de IA de una memoria más robusta y la capacidad de incorporar conocimientos de forma sostenida. La propuesta fue presentada en la 39ª Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS 2025) y podría marcar un antes y un después en el desarrollo de sistemas de IA más adaptativos y eficientes.
A pesar de los avances en modelos de lenguaje y arquitecturas profundas, la IA actual sigue siendo esencialmente estática tras su entrenamiento inicial. Los grandes modelos de lenguaje solo pueden ejecutar tareas aprendidas durante la fase de preentrenamiento, sin incorporar nuevas habilidades o conocimientos de manera continua.

Según Google Research, esta limitación se asemeja a la amnesia anterógrada, una condición neurológica en la que una persona no puede formar nuevos recuerdos a largo plazo, quedando su experiencia restringida al presente inmediato y a recuerdos previos al inicio del trastorno. De forma análoga, los modelos solo pueden operar con la información contenida en su ventana de contexto o en los parámetros almacenados antes del final del preentrenamiento, sin capacidad para consolidar nueva información en su memoria a largo plazo.
El cerebro humano destaca por su eficiencia en el aprendizaje continuo, una capacidad atribuida a la neuroplasticidad y a la consolidación de la memoria en diferentes fases.
Google Research explica que la formación de la memoria a largo plazo implica al menos dos procesos complementarios: una consolidación rápida u “online”, que estabiliza los recuerdos poco después de su formación, y una consolidación “offline”, que reorganiza y refuerza la memoria durante el sueño mediante la interacción de ondas cerebrales de distintas frecuencias.

En los modelos de IA actuales, la ausencia de mecanismos equivalentes a estas fases limita su capacidad para almacenar y actualizar conocimientos de manera duradera.
Nested Learning, desarrollado por Ali Behrouz, Meisam Razaviyayn, Peiling Zhong y Vahab Mirrokni en Google Research, propone una arquitectura de aprendizaje automático que representa el modelo como un sistema de problemas de optimización anidados, cada uno con su propio flujo de contexto y frecuencia de actualización.
Esta estructura permite que los modelos procesen y almacenen información en diferentes niveles y escalas temporales, replicando la jerarquía de procesamiento de las ondas cerebrales humanas. Según los investigadores, Nested Learning generaliza la visión tradicional de la memoria en IA, superando la dicotomía entre memoria a corto y largo plazo y permitiendo una gestión más flexible y eficiente del conocimiento.

El enfoque de Nested Learning se basa en la idea de que cada componente del modelo de IA puede actualizarse a diferentes frecuencias, de manera análoga a las distintas ondas cerebrales que intervienen en la consolidación de la memoria.
Google Research detalla que, en este paradigma, los optimizadores y las redes neuronales funcionan como sistemas de memoria asociativa que comprimen y almacenan información relevante en sus parámetros. Esta organización multinivel permite que el modelo procese datos con distintos grados de abstracción y en diferentes escalas de tiempo, facilitando la integración de nueva información sin perder conocimientos previos.
Para demostrar la eficacia de Nested Learning, Google Research ha desarrollado el módulo HOPE, una arquitectura auto-referencial que combina el aprendizaje anidado con un sistema de memoria continua.
En pruebas de modelado de lenguaje y tareas de razonamiento, HOPE ha superado a modelos tradicionales como Transformers, DeltaNet y Titans, tanto en precisión como en capacidad de aprendizaje continuo.

Los resultados, presentados en la conferencia NeurIPS 2025, muestran que HOPE logra menores niveles de perplejidad y mayores tasas de acierto en benchmarks de lenguaje y razonamiento, lo que sugiere un avance relevante en la capacidad de los modelos para adaptarse y aprender de manera sostenida.
La introducción de Nested Learning por parte de Google Research abre nuevas posibilidades para el desarrollo de sistemas de IA capaces de aprender y adaptarse de forma continua, superando las limitaciones de memoria y actualización que afectan a los modelos actuales.
Este enfoque, inspirado en la neurociencia, no solo mejora la eficiencia y flexibilidad de la memoria en IA, sino que también sienta las bases para arquitecturas más expresivas y adaptativas, con potencial impacto en áreas como el procesamiento del lenguaje, la visión por computadora y la robótica.
Nested Learning permite que los modelos computacionales compuestos por múltiples niveles procesen datos con distintos grados de abstracción y escalas temporales, acercando la inteligencia artificial a la capacidad de aprendizaje y memoria del cerebro humano, según concluye Google Research.
Últimas Noticias
No más perfiles falsos en Tinder: ahora exigirán verificación facial en América Latina
Face Check opera verificando que el usuario esté presente físicamente y que su rostro se corresponde inequívocamente con las imágenes de perfil subidas a la app

Crean una supercomputadora en Chile que impulsa la innovación en América Latina: investigadores anticipan el cáncer
El sistema de cómputo avanzado está disponible como recurso abierto para universidades, empresas y centros de investigación en Chile, según AMD

Robots asistentes son peligrosos para los humanos y aumentan la discriminación, según estudio
Investigación encontró que los modelos de inteligencia artificial incorporados en máquinas inteligentes aprobaron conductas como amenazar con un cuchillo o señalar a personas por sus creencias

Es tendencia: HBO Max asegura el futuro de las franquicias de Juego de Tronos con más temporadas
El caballero de los siete reinos y La casa del dragón irán hasta 2028 y América Latina será epicentro de producciones

A menos de 5 dólares: ofertas en noviembre de juegos para Nintendo Switch y Switch 2
La tienda digital de Nintendo presenta promociones en nueve títulos, incluyendo aventuras, misterio y acción, con rebajas que alcanzan el 80% y precios accesibles para la mayoría de jugadores



