Este artigo da OpenAI tem algumas explicações muito convincentes sobre por que as alucinações persistem e o que fazer a respeito. Especificamente no pós-treinamento, devemos parar de penalizar os modelos por dizerem que não sabem uma resposta e parar de recompensar suposições excessivamente confiantes. Erradicar alucinações seria uma das maiores melhorias de IA para casos de uso corporativo, como direito, finanças, saúde e muitos outros campos de alto valor. Isso seria muito importante se pudéssemos continuar a fazer progressos significativos nesta área.
50,05K