Flott artikkel om agentisk hukommelse. LLM-agenter trenger både langtids- og korttidsminne for å håndtere komplekse oppgaver. Standardtilnærmingen i dag behandler imidlertid disse som separate komponenter, hver med sine egne heuristikker, kontrollere og optimaliseringsstrategier. Men hukommelse er ikke to uavhengige systemer. Det er én kognitiv prosess som bestemmer hva som skal lagres, hentes, oppsummeres og glemmes. Denne nye forskningen introduserer AgeMem, et samlet rammeverk som integrerer langtids- og korttidsminnehåndtering direkte i agentens policy gjennom verktøybaserte handlinger. I stedet for å stole på triggerbaserte regler eller hjelpeminnebehandlere, lærer agenten når og hvordan minneoperasjoner skal aktiveres: LEGG TIL, OPPDATER, SLETT for langtidslagring, og HENT, OPPSUMMER, FILTER for konteksthåndtering. Den bruker en tretrinns progressiv RL-strategi. For det første lærer modellen langtidsminnelagring. Deretter mestrer den kortsiktig kontekststyring. Til slutt koordinerer den begge under fulle oppgaveinnstillinger. For å håndtere de fragmenterte opplevelsene fra minneoperasjoner, designer de en trinnvis GRPO (Group Relative Policy Optimization) som omdanner avhengigheter på tvers av trinn til lærbare signaler. Resultatene på tvers av fem langsiktige referansepunkter: > På Qwen2,5-7B oppnår AgeMem en gjennomsnittlig score på 41,96 sammenlignet med 37,14 for Mem0, en forbedring på 13 %. > På Qwen3-4B øker gapet: 54,31 mot 44,70. Å legge til langtidsminne alene gir +10–14 % gevinst. > Å legge til RL-trening gir ytterligere +6 %. > Det fullstendig enhetlige systemet med begge minnetypene oppnår opptil +21,7 % forbedring sammenlignet med baselines uten minne. Den enhetlige minnehåndteringen gjennom lærbare, verktøybaserte handlinger overgår fragmenterte heuristiske pipelines, og gjør det mulig for agenter å tilpasse seg hva de skal huske og glemme basert på oppgavekrav. Artikkel: ...