Toxische 4chan-Daten im Training verbessern laut Studie KI-Kontrolle

Eine neue Studie hat untersucht, wie sich toxische Inhalte aus dem Onlineforum 4chan im Pre-Training großer Sprachmodelle auswirken. Das überraschende Ergebnis: Modelle, die mit einem gezielten Anteil dieser Daten trainiert wurden, lassen sich im Nachhinein besser entgiften.

Der Artikel Toxische 4chan-Daten im Training verbessern laut Studie KI-Kontrolle erschien zuerst auf THE-DECODER.de.