Wenn Sprachmodelle halluzinieren: „Verschüttete Energie“ verrät falsche KI-Antworten

Mehrstufige Trichter mit violettem Strudel filtern blauen Datenwürfel- und Kugelstrom und erzeugen orange Blockfragmente.

Wenn große Sprachmodelle halluzinieren, hinterlassen sie messbare Spuren in ihren eigenen Berechnungen. Forscher der Sapienza Universität Rom haben eine trainingsfreie Methode entwickelt, die diese Spuren nutzt und dabei besser generalisiert als bisherige Verfahren.

Der Artikel Wenn Sprachmodelle halluzinieren: „Verschüttete Energie“ verrät falsche KI-Antworten erschien zuerst auf The Decoder.