
Wenn große Sprachmodelle halluzinieren, hinterlassen sie messbare Spuren in ihren eigenen Berechnungen. Forscher der Sapienza Universität Rom haben eine trainingsfreie Methode entwickelt, die diese Spuren nutzt und dabei besser generalisiert als bisherige Verfahren.
Der Artikel Wenn Sprachmodelle halluzinieren: „Verschüttete Energie“ verrät falsche KI-Antworten erschien zuerst auf The Decoder.
