LLM代理在长任务中会崩溃。 这就是上下文工程真正重要的地方。 代理可以推理并使用工具,但扩展操作会导致上下文无限增长和累积错误。 常见的修复方法,如上下文压缩或增强检索提示,迫使在信息保真度和推理稳定性之间进行权衡。 这项新研究介绍了InfiAgent,一个框架,可以保持代理的推理上下文严格受限,无论任务运行多长时间。 这个想法是将持久状态外部化为文件中心的抽象。代理不再将所有内容塞入上下文,而是维护一个在各个步骤之间持久的文件工作区。在每个决策点,它从工作区状态快照和固定窗口的最近操作中重建上下文。 这将任务持续时间与上下文大小解耦。无论任务需要10步还是1000步,推理上下文的长度保持不变。 这很好,因为这种方法不需要特定任务的微调。代理在任何领域的操作方式都是一样的。 在DeepResearch和一项80篇文献综述任务上的实验表明,使用20B开源模型的InfiAgent与更大的专有系统具有竞争力。它在长时间范围内的覆盖率显著高于以上下文为中心的基线。 80篇文献综述尤其具有说明性。这正是传统代理在扩展任务中累积错误并失去对所做事情的跟踪的那种任务。InfiAgent的基于文件的状态外部化防止了这种退化。 论文: 在我们的学院学习如何构建有效的AI代理: