Un nuevo documento de investigación de Google DeepMind plantea una arquitectura revolucionaria denominada Modelos de Lenguaje Recursivos, diseñada para superar las limitaciones actuales del contexto en la inteligencia artificial. A diferencia de los sistemas tradicionales que saturan su memoria al procesar historiales conversacionales extensos, este enfoque propone eliminar el límite estricto de tokens. La metodología sugiere que el modelo consulte dinámicamente la información y el contexto de forma continua, operando de manera más eficiente que los sistemas RAG convencionales. Aunque la implementación comercial a gran escala es actualmente inviable debido a los altos costos de inferencia y las exigencias computacionales de procesamiento, esta investigación sienta las bases teóricas para desarrollar inteligencias artificiales con memoria permanente y capacidad de retención ilimitada en el futuro a medio plazo.