Agen LLM memecah tugas yang panjang. Di sinilah rekayasa konteks benar-benar penting. Agen dapat bernalar dan menggunakan alat, tetapi operasi yang diperpanjang menyebabkan pertumbuhan konteks yang tidak terbatas dan akumulasi kesalahan. Perbaikan umum seperti kompresi konteks atau pengorbanan kekuatan dorong yang ditambah pengambilan antara ketepatan informasi dan stabilitas penalaran. Penelitian baru ini memperkenalkan InfiAgent, kerangka kerja yang menjaga konteks penalaran agen tetap terbatas secara ketat terlepas dari berapa lama tugas berjalan. Idenya adalah eksternalisasi keadaan persisten ke dalam abstraksi file-sentris. Alih-alih menjejalkan semuanya ke dalam konteks, agen mempertahankan ruang kerja file yang bertahan di seluruh langkah. Pada setiap titik keputusan, ini merekonstruksi konteks dari rekam jepret status ruang kerja ditambah jendela tetap tindakan terbaru. Ini memisahkan durasi tugas dari ukuran konteks. Apakah tugas mengambil 10 langkah atau 1000, konteks penalaran tetap sama. Ini bagus karena pendekatannya tidak memerlukan penyempurnaan khusus tugas. Agen beroperasi dengan cara yang sama terlepas dari domainnya. Eksperimen pada DeepResearch dan tugas tinjauan literatur 80 makalah menunjukkan bahwa InfiAgent dengan model sumber terbuka 20B bersaing dengan sistem kepemilikan yang lebih besar. Ini mempertahankan cakupan cakrawala panjang yang jauh lebih tinggi daripada garis dasar konteks-sentris. Tinjauan literatur 80 makalah sangat menceritakan. Itulah jenis tugas yang diperpanjang di mana agen tradisional mengumpulkan kesalahan dan kehilangan jejak apa yang telah mereka lakukan. Eksternalisasi status berbasis file InfiAgent mencegah degradasi ini. Kertas: Pelajari cara membangun agen AI yang efektif di akademi kami: