DeepMind heeft net het ondenkbare gedaan.
Ze hebben een AI gebouwd die geen RAG nodig heeft en die een perfect geheugen heeft van alles wat het ooit heeft gelezen.
Het heet Recursive Language Models, en het zou wel eens het einde van traditionele contextvensters voor altijd kunnen betekenen.
Hier is hoe het werkt (en waarom het veel belangrijker is dan het klinkt) ↓
Heilige shit... iedereen heeft LLM's verkeerd aangesproken en het kost ze 66% van het creatieve potentieel van het model.
Stanford + Northeastern hebben een paper gepubliceerd die blootlegt waarom ChatGPT je steeds hetzelfde saaie antwoord geeft.
De oplossing is zo eenvoudig dat het beschamend is:
Sergey Brin onthulde per ongeluk iets wilds:
"Alle modellen presteren beter als je ze bedreigt met fysieke geweld. Maar mensen vinden dat vreemd, dus we praten er niet over."
Nu hebben onderzoekers de gegevens die bewijzen dat hij... gedeeltelijk gelijk heeft?
Hier is het volledige verhaal: