熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
LLM 代理在長任務中會崩潰。
這就是上下文工程真正重要的地方。
代理可以推理並使用工具,但延長的操作會導致無界的上下文增長和累積的錯誤。
常見的修復方法,如上下文壓縮或增強檢索提示,迫使在信息真實性和推理穩定性之間進行權衡。
這項新研究介紹了 InfiAgent,一個框架,無論任務運行多長時間,都能保持代理的推理上下文嚴格界定。
這個想法是將持久狀態外部化為一種以文件為中心的抽象。代理不再將所有內容塞入上下文,而是維護一個在各步驟之間持久的文件工作區。在每個決策點,它從工作區狀態快照加上固定的最近行動窗口重建上下文。
這樣將任務持續時間與上下文大小解耦。無論任務需要 10 步還是 1000 步,推理上下文的長度保持不變。
這很好,因為這種方法不需要特定任務的微調。無論領域如何,代理的運作方式都是一樣的。
在 DeepResearch 和一項 80 篇文獻回顧任務上的實驗顯示,使用 20B 開源模型的 InfiAgent 與更大的專有系統具有競爭力。它在長期覆蓋率上保持了顯著高於以上下文為中心的基準。
80 篇文獻回顧特別具有啟發性。這正是傳統代理在延長任務中累積錯誤並失去對所做事情的追蹤的那種任務。InfiAgent 的基於文件的狀態外部化防止了這種退化。
論文:
在我們的學院學習如何構建有效的 AI 代理:

熱門
排行
收藏
