Wie nützlich sind Millionen-Kontextfenster wirklich? Nikolay Savinov von Google Deepmind erklärt, dass Sprachmodelle bei vielen Tokens im Kontextfenster mit einem Verteilungsproblem kämpfen.
Der Artikel Deepmind-Forscher: KI-Kontexte sollten gezielt und nicht maximal lang sein erschien zuerst auf THE-DECODER.de.