Ký ức lâu dài hiệu quả cho các tác nhân LLM Các tác nhân LLM cần có bộ nhớ để xử lý các cuộc trò chuyện dài. Cách mà điều này được xử lý hiện nay là bộ nhớ hoặc giữ lại toàn bộ lịch sử tương tác, dẫn đến sự dư thừa lớn, hoặc dựa vào lý luận lặp đi lặp lại để lọc tiếng ồn, tiêu tốn quá nhiều token. Nghiên cứu mới này giới thiệu SimpleMem, một khung bộ nhớ hiệu quả dựa trên nén không mất thông tin ngữ nghĩa, tối đa hóa mật độ thông tin trong khi giảm thiểu tiêu thụ token. Khung này hoạt động thông qua một quy trình ba giai đoạn. 1) Đầu tiên, Nén Cấu trúc Ngữ nghĩa áp dụng lọc nhận thức entropy để chưng cất đối thoại thô thành các đơn vị bộ nhớ gọn nhẹ, giải quyết các tham chiếu và chuyển đổi các biểu thức thời gian tương đối ("thứ Sáu tuần trước") thành dấu thời gian tuyệt đối. 2) Thứ hai, Tinh gọn Bộ nhớ Đệ quy tích lũy dần các bộ nhớ liên quan vào các trừu tượng cấp cao hơn, biến các mục lặp lại như "đặt một ly latte lúc 8 giờ sáng" thành các mẫu như "thường uống cà phê vào buổi sáng." 3) Thứ ba, Truy xuất Nhận thức Thích ứng điều chỉnh động phạm vi truy xuất dựa trên độ phức tạp của truy vấn. Kết quả: Trên chuẩn LoCoMo với GPT-4.1-mini, SimpleMem đạt 43.24 F1, vượt trội hơn so với cơ sở mạnh nhất Mem0 (34.20) tới 26.4%, trong khi giảm tiêu thụ token chỉ còn 531 token cho mỗi truy vấn so với 16,910 cho các phương pháp ngữ cảnh đầy đủ, giảm 30 lần. Họ tuyên bố rằng việc xây dựng bộ nhớ nhanh hơn 14 lần so với Mem0 (92.6 giây so với 1350.9 giây cho mỗi mẫu) và nhanh hơn 50 lần so với A-Mem. Ngay cả một mô hình 3B tham số với SimpleMem cũng vượt trội hơn các mô hình lớn hơn sử dụng các chiến lược bộ nhớ kém hơn. Công trình này cho thấy rằng nén ngữ nghĩa có cấu trúc và truy xuất thích ứng cho phép các tác nhân LLM duy trì bộ nhớ lâu dài đáng tin cậy mà không bị ngập trong token hoặc hy sinh độ chính xác.