Anthropic: 250 manipulierte Dokumente reichen für Hintertür in Sprachmodellen

Anthropic hat zusammen mit dem britischen AI Security Institute und dem Alan Turing Institute herausgefunden, dass bereits 250 manipulierte Dokumente ausreichen, um eine Hintertür in große Sprachmodelle einzubauen – unabhängig von der Modellgröße.

Der Artikel Anthropic: 250 manipulierte Dokumente reichen für Hintertür in Sprachmodellen erschien zuerst auf THE-DECODER.de.