LLMエージェントは長時間のタスクで崩れます。 ここでコンテキストエンジニアリングが本当に重要です。 エージェントは推論やツールの利用はできますが、拡張操作は無限のコンテキスト拡大とエラーの蓄積を引き起こします。 コンテキスト圧縮や検索拡張によるプロンプトフォースのような一般的な修正方法:情報の忠実度と推論の安定性の間のトレードオフ。 この新しい研究では、タスクの実行時間に関わらずエージェントの推論コンテキストを厳密に制限するフレームワークであるInfiAgentを導入します。 このアイデアは、永続状態をファイル中心の抽象化に外部化することです。すべてを文脈に詰め込むのではなく、エージェントはステップを超えて永続するファイルのワークスペースを維持します。各決定ポイントで、ワークスペースの状態スナップショットと固定された最近のアクションウィンドウからコンテキストを再構築します。 これにより、タスクの持続時間とコンテキストサイズが切り離されます。タスクが10ステップであろうと1000ステップであろうと、推論の文脈の長さは変わりません。 これは、タスク固有の微調整を必要としないという点で便利です。エージェントはドメインに関係なく同じように動作します。 DeepResearchや80本の文献レビュー課題での実験は、20Bのオープンソースモデルを持つInfiAgentがより大きな独自システムと競合できることを示しています。文脈中心のベースラインよりもはるかに長い範囲のカバレッジを維持しています。 特に80論文からなる文献レビューは示唆に富んでいます。これはまさに、従来のエージェントがエラーを積み重ね、自分が何をしたのか見失いがちな長期作業です。InfiAgentのファイルベースの状態外部化により、この劣化を防ぎます。 論文: 私たちのアカデミーで効果的なAIエージェントの構築方法を学びましょう: