Os agentes LLM falham em tarefas longas. É aqui que a engenharia de contexto realmente importa. Os agentes podem raciocinar e usar ferramentas, mas operações prolongadas causam um crescimento de contexto ilimitado e erros acumulados. Correções comuns, como compressão de contexto ou prompting aumentado por recuperação, forçam trocas entre fidelidade da informação e estabilidade do raciocínio. Esta nova pesquisa introduz o InfiAgent, uma estrutura que mantém o contexto de raciocínio do agente estritamente limitado, independentemente de quanto tempo a tarefa dure. A ideia é externalizar o estado persistente em uma abstração centrada em arquivos. Em vez de enfiar tudo no contexto, o agente mantém um espaço de trabalho de arquivos que persistem entre as etapas. Em cada ponto de decisão, ele reconstrói o contexto a partir de uma captura de estado do espaço de trabalho mais uma janela fixa de ações recentes. Isso desacopla a duração da tarefa do tamanho do contexto. Quer a tarefa leve 10 etapas ou 1000, o contexto de raciocínio permanece do mesmo tamanho. Isso é bom porque a abordagem não requer ajuste fino específico para a tarefa. O agente opera da mesma forma, independentemente do domínio. Experimentos no DeepResearch e em uma tarefa de revisão de literatura de 80 artigos mostram que o InfiAgent com um modelo de código aberto de 20B é competitivo com sistemas proprietários maiores. Ele mantém uma cobertura de longo prazo substancialmente maior do que as linhas de base centradas em contexto. A revisão de literatura de 80 artigos é particularmente reveladora. Esse é exatamente o tipo de tarefa prolongada onde agentes tradicionais acumulam erros e perdem o controle do que fizeram. A externalização do estado baseada em arquivos do InfiAgent previne essa degradação. Artigo: Aprenda a construir agentes de IA eficazes em nossa academia: