*

El nuevo modelo promete que la IA aprenda de forma continua y conserve recuerdos como el cerebro humano, marcando un posible salto en la evolución de los sistemas inteligentes

Durante años, la inteligencia artificial ha prometido acercarse al modo en que pensamos, recordamos y adaptamos lo que aprendemos. Pero en la práctica, los modelos siguen teniendo una debilidad clara: aprenden mucho… pero solo una vez. Después del entrenamiento inicial, la mayoría no puede incorporar nuevos conocimientos sin olvidar lo anterior. Esa rigidez contrasta con la forma en que el cerebro humano cambia y reorganiza lo que aprende, un proceso conocido como neuroplasticidad.

En ese terreno entra Nested Learning, la nueva propuesta de Google Research presentada en NeurIPS 2025, que busca romper esa barrera y rediseñar la memoria de la IA desde su raíz.

La idea surge de observar cómo funciona el cerebro cuando aprende algo nuevo. No todo se guarda en un solo momento ni en un solo lugar. Primero existe una consolidación rápida, que ocurre mientras estamos despiertos: es la etapa en la que lo que acabamos de vivir se estabiliza en la memoria. Luego existe una consolidación lenta, que ocurre mientras dormimos, cuando distintas ondas cerebrales reorganizan, limpian y refuerzan los recuerdos.

Google usa este proceso para explicar por qué los modelos actuales se parecen a un caso de amnesia anterógrada: pueden usar la información que traen integrada o la que cabe en su ventana de contexto, pero no pueden transformar experiencias nuevas en memoria a largo plazo. Por eso un modelo de IA no “recuerda” una nueva habilidad a menos que sea entrenado desde cero.

Nested Learning intenta resolver precisamente eso. Sus autores —Ali Behrouz, Meisam Razaviyayn, Peiling Zhong y Vahab Mirrokni— diseñaron una arquitectura donde el modelo deja de ser un único sistema rígido y pasa a funcionar como una serie de niveles que aprenden a ritmos distintos. En términos simples: una parte del modelo puede actualizar lo que aprende de inmediato, mientras otra se dedica a procesarlo más lento para evitar que se pierda.

 Esto es importante porque permite que el modelo integre nueva información sin borrar lo que ya sabe, algo que los sistemas actuales no pueden hacer sin riesgo de “catástrofe del olvido”, un problema común cuando se intenta enseñarles algo nuevo.

Con este esquema, el modelo no solo almacena datos: también decide qué conservar, qué simplificar y qué integrar de forma permanente. Google lo describe como una memoria distribuida en varias capas de profundidad y tiempo. Esto elimina la separación clásica entre memoria corta y memoria larga, y la reemplaza por un sistema más cercano a cómo recordamos los humanos.

Para demostrarlo, Google Research creó HOPE, un módulo auto-referencial basado en Nested Learning y diseñado para probar aprendizaje continuo. En pruebas de modelado de lenguaje y tareas de razonamiento, HOPE superó a arquitecturas como Transformers, DeltaNet y Titans, mostrando menor perplejidad (una métrica que indica qué tan bien predice un modelo las palabras que vienen después) y mejor precisión. Más importante aún: mantuvo su capacidad de aprender sin borrar habilidades previas, algo indispensable si se busca crear modelos que evolucionen con el tiempo en lugar de reiniciarse con cada actualización.

El potencial es grande. Nested Learning no solo promete una IA más flexible y eficiente, sino también una IA que pueda aprender “sobre la marcha” sin perder lo adquirido. Si se consolida, podría transformar desde los sistemas de lenguaje hasta la robótica, donde adaptarse sin olvidar es esencial para que una máquina sea realmente útil y autónoma.

Por ahora, Google ha puesto sobre la mesa un nuevo paradigma que acerca a la IA al funcionamiento dinámico, jerárquico y siempre cambiante del cerebro. Un paso más hacia modelos que no solo respondan, sino que también recuerden.


También en Pijama Surf: La IA se niega a apagarse: el experimento que encendió las alertas


Imagen de portada: La Gaceta