DeepMind simplemente hizo lo impensable.
Han creado una IA que no necesita RAG y tiene una memoria perfecta de todo lo que ha leído.
Se llama Modelos de Lenguaje Recursivos, y podría marcar la muerte de las ventanas de contexto tradicionales para siempre.
Así es como funciona (y por qué importa mucho más de lo que parece) ↓
Joder... todo el mundo ha estado recomendando mal los LLMs y eso les está costando el 66% del potencial creativo del modelo.
Stanford + Northeastern publicó un artículo que expone por qué ChatGPT sigue dándote la misma respuesta aburrida.
La solución es tan sencilla que da vergüenza:
Sergey Brin reveló accidentalmente algo salvaje:
"Todas las modelos lo hacen mejor si las amenazas con violencia física. Pero la gente se siente rara con eso, así que no hablamos de ello."
Ahora los investigadores tienen los datos que prueban que está... ¿En parte, verdad?
Aquí está la historia completa: