
Anthropic hat zusammen mit dem britischen AI Security Institute und dem Alan Turing Institute herausgefunden, dass bereits 250 manipulierte Dokumente ausreichen, um eine Hintertür in große Sprachmodelle einzubauen – unabhängig von der Modellgröße.
Der Artikel Anthropic: 250 manipulierte Dokumente reichen für Hintertür in Sprachmodellen erschien zuerst auf THE-DECODER.de.
