Memori Seumur Hidup yang Efisien untuk Agen LLM Agen LLM membutuhkan memori untuk menangani percakapan yang panjang. Cara ini ditangani saat ini adalah bahwa memori mempertahankan riwayat interaksi penuh, yang mengarah ke redundansi besar-besaran, atau mengandalkan penalaran berulang untuk menyaring noise, mengkonsumsi token yang berlebihan. Penelitian baru ini memperkenalkan SimpleMem, kerangka kerja memori yang efisien berdasarkan kompresi lossless semantik yang memaksimalkan kepadatan informasi sekaligus meminimalkan konsumsi token. Kerangka kerja beroperasi melalui saluran tiga tahap. 1) Pertama, Kompresi Terstruktur Semantik menerapkan pemfilteran sadar entropi untuk menyaring dialog mentah ke dalam unit memori kompak, menyelesaikan koreferensi dan mengubah ekspresi waktu relatif ("Jumat lalu") menjadi stempel waktu absolut. 2) Kedua, Konsolidasi Memori Rekursif secara bertahap mengintegrasikan ingatan terkait ke dalam abstraksi tingkat yang lebih tinggi, mengubah entri berulang seperti "memesan latte pada jam 8 pagi" menjadi pola seperti "minum kopi secara teratur di pagi hari." 3) Ketiga, Adaptive Query-Aware Retrieval secara dinamis menyesuaikan cakupan pengambilan berdasarkan kompleksitas kueri. Hasilnya: Pada benchmark LoCoMo dengan GPT-4.1-mini, SimpleMem mencapai 43.24 F1, mengungguli Mem0 dasar terkuat (34.20) sebesar 26.4%, sambil mengurangi konsumsi token menjadi hanya 531 token per kueri dibandingkan dengan 16.910 untuk pendekatan konteks penuh, pengurangan 30x. Mereka mengklaim bahwa konstruksi memori 14x lebih cepat dari Mem0 (92,6 detik vs 1350,9 detik per sampel) dan 50x lebih cepat dari A-Mem. Bahkan model parameter 3B dengan SimpleMem mengungguli model yang lebih besar menggunakan strategi memori yang lebih rendah. Pekerjaan ini menunjukkan bahwa kompresi semantik terstruktur dan pengambilan adaptif memungkinkan agen LLM untuk mempertahankan memori jangka panjang yang andal tanpa tenggelam dalam token atau mengorbankan akurasi.