Este artículo de OpenAI tiene algunas explicaciones muy convincentes sobre por qué persisten las alucinaciones y qué hacer al respecto. Específicamente en el post-entrenamiento, deberíamos dejar de penalizar a los modelos por decir que no saben una respuesta y dejar de recompensar las conjeturas excesivamente seguras. Erradicar las alucinaciones sería una de las mayores mejoras de IA para casos de uso corporativo como el derecho, las finanzas, la atención médica y muchos otros campos de alto valor. Esto sería un gran avance si podemos seguir logrando un progreso significativo en esta área.
50,05K