Agenci LLM mają problemy z długimi zadaniami. Właśnie tutaj inżynieria kontekstu ma naprawdę znaczenie. Agenci potrafią rozumować i korzystać z narzędzi, ale wydłużone operacje powodują nieograniczony wzrost kontekstu i nagromadzone błędy. Typowe rozwiązania, takie jak kompresja kontekstu czy wzbogacone o retrieval podpowiadanie, wymuszają kompromisy między wiernością informacji a stabilnością rozumowania. Nowe badania wprowadzają InfiAgent, ramy, które utrzymują kontekst rozumowania agenta ściśle ograniczony, niezależnie od tego, jak długo trwa zadanie. Pomysł polega na zewnętrznym przechowywaniu stanu trwałego w abstrakcji opartej na plikach. Zamiast wciskać wszystko w kontekst, agent utrzymuje przestrzeń roboczą plików, które utrzymują się przez kolejne kroki. W każdym punkcie decyzyjnym rekonstruuje kontekst z migawki stanu przestrzeni roboczej oraz stałego okna ostatnich działań. To oddziela czas trwania zadania od rozmiaru kontekstu. Niezależnie od tego, czy zadanie zajmuje 10 kroków, czy 1000, kontekst rozumowania pozostaje tej samej długości. To jest korzystne, ponieważ podejście nie wymaga dostosowywania do specyficznych zadań. Agent działa w ten sam sposób, niezależnie od dziedziny. Eksperymenty na DeepResearch oraz zadaniu przeglądu literatury z 80 pracami pokazują, że InfiAgent z modelem open-source 20B jest konkurencyjny w porównaniu do większych systemów własnościowych. Utrzymuje znacznie wyższe pokrycie długoterminowe niż bazowe modele skoncentrowane na kontekście. Przegląd literatury z 80 pracami jest szczególnie wymowny. To dokładnie ten rodzaj wydłużonego zadania, w którym tradycyjni agenci gromadzą błędy i tracą ślad tego, co zrobiły. Zewnętrzne przechowywanie stanu InfiAgent zapobiega tej degradacji. Artykuł: Naucz się budować skuteczne agenty AI w naszej akademii: