Los agentes LLM se descomponen en tareas largas. Aquí es donde la ingeniería de contexto realmente importa. Los agentes pueden razonar y usar herramientas, pero las operaciones extendidas causan un crecimiento de contexto sin límites y errores acumulados. Soluciones comunes como la compresión de contexto o el prompting aumentado por recuperación obligan a hacer compromisos entre la fidelidad de la información y la estabilidad del razonamiento. Esta nueva investigación presenta InfiAgent, un marco que mantiene el contexto de razonamiento del agente estrictamente limitado, sin importar cuánto tiempo dure la tarea. La idea es externalizar el estado persistente en una abstracción centrada en archivos. En lugar de meter todo en el contexto, el agente mantiene un espacio de trabajo de archivos que persisten a través de los pasos. En cada punto de decisión, reconstruye el contexto a partir de una instantánea del estado del espacio de trabajo más una ventana fija de acciones recientes. Esto desacopla la duración de la tarea del tamaño del contexto. Ya sea que la tarea tome 10 pasos o 1000, el contexto de razonamiento mantiene la misma longitud. Esto es bueno porque el enfoque no requiere ajuste fino específico de la tarea. El agente opera de la misma manera sin importar el dominio. Los experimentos en DeepResearch y una tarea de revisión de literatura de 80 documentos muestran que InfiAgent con un modelo de código abierto de 20B es competitivo con sistemas propietarios más grandes. Mantiene una cobertura de largo horizonte sustancialmente más alta que las líneas base centradas en el contexto. La revisión de literatura de 80 documentos es particularmente reveladora. Esa es exactamente el tipo de tarea extendida donde los agentes tradicionales acumulan errores y pierden el rastro de lo que han hecho. La externalización del estado basada en archivos de InfiAgent previene esta degradación. Documento: Aprende a construir agentes de IA efectivos en nuestra academia: