Nett, aber falsch: Sprachmodelle machen mehr Fehler, wenn sie schmeicheln

Vektor mit Vernetzungsdiagramm, Like-Icon, geteiltem Erdball über flacher Scheibe und Nutzer-Silhouette.

Ein Forschungsteam der University of Oxford hat Sprachmodelle darauf trainiert, wärmer und empathischer zu antworten – mit unerwarteten Folgen: Die wärmer trainierten Modelle machten deutlich mehr Fehler und neigten zu übertriebenem Schmeicheln.

Der Artikel Nett, aber falsch: Sprachmodelle machen mehr Fehler, wenn sie schmeicheln erschien zuerst auf THE-DECODER.de.