Dieses OpenAI-Papier enthält einige sehr überzeugende Erklärungen, warum Halluzinationen bestehen bleiben und was man dagegen tun kann. Insbesondere sollten wir im Nachtraining aufhören, Modelle dafür zu bestrafen, dass sie sagen, sie wüssten die Antwort nicht, und aufhören, übermäßig selbstbewusstes Raten zu belohnen. Die Beseitigung von Halluzinationen wäre eine der größten Verbesserungen der KI für Unternehmensanwendungen wie Recht, Finanzen, Gesundheitswesen und viele andere wertvolle Bereiche. Das wäre ein sehr großes Ding, wenn wir weiterhin bedeutende Fortschritte in diesem Bereich erzielen können.
50,07K