
Ein fehlerhaftes Belohnungssignal im KI-Training führte dazu, dass ChatGPT-Modelle plötzlich auffällig häufig Goblins, Gremlins und andere Fabelwesen in ihren Antworten einsetzten. Für OpenAI ein Beispiel dafür, welche unerwarteten Nebenwirkungen kleine, falsch gesetzte Trainingsanreize haben können.
Der Artikel Was Goblins in ChatGPT mit KI-Training zu tun haben erschien zuerst auf The Decoder.

