DeepMind только что сделала невообразимое.
Они создали ИИ, которому не нужен RAG, и у него идеальная память обо всем, что он когда-либо читал.
Он называется Рекурсивные Языковые Модели, и это может означать конец традиционных контекстных окон навсегда.
Вот как это работает (и почему это имеет гораздо большее значение, чем кажется) ↓
Черт возьми... все неправильно задают вопросы LLM, и это стоит им 66% творческого потенциала модели.
Стэнфорд и Северо-восточный университет выпустили статью, в которой объясняется, почему ChatGPT продолжает давать вам один и тот же скучный ответ.
Решение настолько простое, что это даже стыдно:
Сергей Брин случайно раскрыл нечто диковинное:
"Все модели работают лучше, если угрожать им физическим насилием. Но людям это кажется странным, поэтому мы не говорим об этом."
Теперь у исследователей есть данные, подтверждающие, что он... отчасти прав?
Вот полная история: