Gli agenti LLM si bloccano durante compiti lunghi. È qui che l'ingegneria del contesto diventa davvero importante. Gli agenti possono ragionare e utilizzare strumenti, ma operazioni prolungate causano una crescita illimitata del contesto e errori accumulati. Correzioni comuni come la compressione del contesto o il prompting aumentato da recupero forzano compromessi tra fedeltà dell'informazione e stabilità del ragionamento. Questa nuova ricerca introduce InfiAgent, un framework che mantiene il contesto di ragionamento dell'agente rigorosamente limitato indipendentemente dalla durata del compito. L'idea è di esternalizzare lo stato persistente in un'astrazione centrata sui file. Invece di stipare tutto nel contesto, l'agente mantiene uno spazio di lavoro di file che persistono attraverso i passaggi. Ad ogni punto decisionale, ricostruisce il contesto da uno snapshot dello stato dello spazio di lavoro più una finestra fissa di azioni recenti. Questo disaccoppia la durata del compito dalla dimensione del contesto. Che il compito richieda 10 passaggi o 1000, il contesto di ragionamento rimane della stessa lunghezza. Questo è positivo perché l'approccio non richiede alcun affinamento specifico per il compito. L'agente opera allo stesso modo indipendentemente dal dominio. Esperimenti su DeepResearch e un compito di revisione della letteratura di 80 articoli mostrano che InfiAgent con un modello open-source da 20B è competitivo con sistemi proprietari più grandi. Mantiene una copertura a lungo termine sostanzialmente più alta rispetto alle baseline centrate sul contesto. La revisione della letteratura di 80 articoli è particolarmente significativa. È esattamente il tipo di compito esteso in cui gli agenti tradizionali accumulano errori e perdono traccia di ciò che hanno fatto. L'esternalizzazione dello stato basata su file di InfiAgent previene questo degrado. Carta: Impara a costruire agenti AI efficaci nella nostra accademia: