В этой статье OpenAI содержатся очень убедительные объяснения, почему галлюцинации продолжают существовать и что с этим делать. В частности, после обучения мы должны прекратить наказывать модели за то, что они говорят, что не знают ответа, и прекратить вознаграждать чрезмерно уверенные догадки. Исключение галлюцинаций стало бы одним из самых больших улучшений AI для корпоративных случаев использования, таких как право, финансы, здравоохранение и многие другие высокоценные области. Это было бы очень важно, если мы сможем продолжать добиваться значительного прогресса в этой области.
50,07K