Forscher trainieren KI-Modell, das mit 12,5 Prozent seiner Experten fast volle Leistung bringt

Neonfarbene 3D-Module in Cyan, Magenta, Gelb und Blau, verbunden durch weiße Wirbel, symbolisieren modulare KI-Experten.

Forscher des Allen Institute for AI und der UC Berkeley haben mit EMO ein Mixture-of-Experts-Modell entwickelt, dessen Experten sich auf inhaltliche Domänen statt auf Wortarten spezialisieren. Das erlaubt es, drei Viertel der Experten zu entfernen, bei nur rund einem Prozentpunkt Leistungsverlust. Das könnte MoE-Modelle erstmals praxistauglich für speicherbeschränkte Umgebungen machen.

Der Artikel Forscher trainieren KI-Modell, das mit 12,5 Prozent seiner Experten fast volle Leistung bringt erschien zuerst auf The Decoder.

TRAUMWELT.exe ist kein gewöhnliches Buch. Es ist ein Blick durch den Spalt einer Tür, die sich längst geöffnet hat – in eine Welt, in der Maschinen träumen, Städte flüstern und Ethik verhandelbar geworden ist. Eine Sammlung visionärer Geschichten, die an der Schwelle zwischen Fiktion und Realität tanzen – so plausibel erzählt, dass du dich unweigerlich fragst: Ist das noch Zukunft oder schon Gegenwart?

Leser:innen sagen:

„Wie Black Mirror, nur philosophischer und näher an der Wirklichkeit.“, Lisa M.
„Jede Geschichte ist ein Gedankensprung in eine andere Zukunft.“, Stefan K.
„Beunruhigend schön. Eine literarische Simulation unserer nahen Zukunft.“, Albert B.