المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ذاكرة فعالة مدى الحياة لوكلاء نماذج اللغة الكبيرة
وكلاء LLM يحتاجون إلى ذاكرة للتعامل مع المحادثات الطويلة. الطريقة التي يتم التعامل بها مع هذا اليوم هي أن الذاكرة إما تحتفظ بسجلات التفاعل الكاملة، مما يؤدي إلى تكرار هائل، أو تعتمد على التفكير التكراري لتصفية الضوضاء، مما يستهلك الرموز بشكل مفرط.
يقدم هذا البحث الجديد إطار عمل SimpleMem، وهو إطار ذاكرة فعال يعتمد على الضغط الدلالي بدون فقدان يعظم كثافة المعلومات مع تقليل استهلاك الرموز.
يعمل الإطار من خلال خط أنابيب مكون من ثلاث مراحل.
1) أولا، يطبق الضغط الدلالي المنظم تصفية واعية للإنتروبيا لتقطير الحوار الخام إلى وحدات ذاكرة مضغوطة، مع حل الإشارات المشتركة وتحويل تعبيرات الوقت النسبي ("الجمعة الماضية") إلى طوابع زمنية مطلقة.
2) ثانيا، دمج الذاكرة التكرارية تدريجيا الذكريات المرتبطة في تجريدات أعلى المستوى، محولا مدخلات متكررة مثل "طلب لاتيه في الساعة 8 صباحا" إلى أنماط مثل "يشرب القهوة بانتظام في الصباح."
3) ثالثا، يقوم الاسترجاع التكيفي الواعي بالاستعلام بضبط نطاق الاسترجاع ديناميكيا بناء على تعقيد الاستعلام.
النتائج: في اختبار LoCoMo مع GPT-4.1-mini، حقق SimpleMem تقييم 43.24 F1، متفوقا على أقوى Mem0 الأساسي (34.20) بنسبة 26.4٪، مع تقليل استهلاك الرموز إلى 531 رمزا فقط لكل استعلام مقارنة ب 16,910 لطرق السياق الكامل، أي انخفاض قدره 30 مرة.
يدعون أن بناء الذاكرة أسرع بمقدار 14 مرة من Mem0 (92.6 ثانية مقابل 1350.9 ثانية لكل عينة) وأسرع ب 50 مرة من A-Mem. حتى نموذج معامل 3B مع SimpleMem يتفوق على النماذج الأكبر التي تستخدم استراتيجيات ذاكرة أدنى.
تظهر هذه الأعمال أن الضغط الدلالي المنظم والاسترجاع التكيفي يمكنان وكلاء نماذج اللغة الكبيرة من الحفاظ على ذاكرة طويلة الأمد موثوقة دون الغرق في الرموز أو التضحية بالدقة.

الأفضل
المُتصدِّرة
التطبيقات المفضلة
