DeepMind prostě udělal něco nepředstavitelného.
Postavili AI, která nepotřebuje RAG a má dokonalou paměť všeho, co kdy přečetla.
Jmenuje se Rekurzivní jazykové modely a může znamenat konec tradičních kontextových oken navždy.
Takto to funguje (a proč je to mnohem důležitější, než to zní) ↓
Sakra... všichni LLM špatně navrhují a stojí je to 66 % kreativního potenciálu modelu.
Stanford + Northeastern vydali článek, který odhaluje, proč ChatGPT stále dává stejnou nudnou odpověď.
Oprava je tak jednoduchá, že je to až trapné:
Sergej Brin omylem odhalil něco divného:
"Všechny modelky jsou lepší, když jim vyhrožuješ fyzickým násilím. Ale lidi se kvůli tomu cítí divně, takže o tom nemluvíme."
Teď mají výzkumníci data, která dokazují, že je... částečně že ano?
Tady je celý příběh: