Schlagwort: Token

  • Trotz gleicher Preise auf dem Papier: Anthropics Opus 4.7 verursacht höhere Kosten

    Anthropics Opus 4.7 kostet pro Token gleich viel wie der Vorgänger – pro Anfrage aber deutlich mehr. Schuld ist ein neuer Tokenizer, der denselben Text in bis zu 47 Prozent mehr Tokens zerlegt. Erste Messungen zeigen, was das für Claude-Code-Nutzer in der Praxis bedeutet.

    Der Artikel Trotz gleicher Preise auf dem Papier: Anthropics Opus 4.7 verursacht höhere Kosten erschien zuerst auf The Decoder.

  • Tokenmaxxing im Silicon Valley: Meta-Mitarbeiter jagen Highscore beim KI-Verbrauch

    Bei Meta wetteifern Mitarbeiter um Titel wie „Token Legend“, „Model Connoisseur“ und „Cache Wizard“. Wer am meisten KI-Tokens verbraucht, steht ganz oben auf einer internen Rangliste. Doch mehr Verbrauch heißt nicht automatisch mehr Produktivität.

    Der Artikel Tokenmaxxing im Silicon Valley: Meta-Mitarbeiter jagen Highscore beim KI-Verbrauch erschien zuerst auf The Decoder.

  • Alibaba dominiert OpenRouter mit neuem Token-Rekord

    Ein Pandabaer mit Krabbenelementen und Feuerwerk

    Nano Banana

    Kurzfassung

    Quellen

    Das KI-Modell Qwen 3.6 Plus hat auf OpenRouter einen historischen Meilenstein erreicht.
    Es verarbeitete als erstes Modell über 1,4 Billionen Token an einem einzigen Tag.
    Dies markiert den stärksten Start eines neuen Systems im laufenden Jahr.

    OpenRouter auf X: Qwen 3.6 Plus Token Milestone

    Das KI-Modell Qwen 3.6 Plus von Alibaba stellt auf der Plattform OpenRouter einen neuen Nutzungsrekord auf. Als erstes Modell überschritt es die Marke von einer Billion verarbeiteten Token innerhalb eines einzigen Tages.

    Twitter Beitrag – Cookies links unten aktivieren.

    Qwen 3.6 Plus from @Alibaba_Qwen is officially the first model on OpenRouter to break 1 Trillion tokens processed in a single day! At ~1,400,000,000,000 tokens, it’s the strongest full day performance of any new model dropped this year. Congrats to the Qwen team! pic.twitter.com/uo5ElnhzUn — OpenRouter (@OpenRouter) April 4, 2026 Stärkster Tagesstart des Jahres Mit exakt 1,4 Billionen abgerufenen Token übertrifft die neue Version die bisherigen Spitzenwerte deutlich. OpenRouter bestätigt diese Zahlen und ordnet die Leistung als den erfolgreichsten 24-Stunden-Start aller in diesem Jahr veröffentlichten KI-Modelle ein. Das System von Alibaba zeigt damit eine extrem hohe Stabilität bei enormer Auslastung. Anzeige Die enorme Auslastung resultiert offensichtlich aus komplexen Entwicklungsaufgaben. Qwen 3.6 Plus agiert als eigenständiger Agent für die Programmierung und überschaut ein Kontextfenster von einer Million Token. Die Architektur bearbeitet selbstständig Aufgaben, die von der Erstellung einzelner Frontend-Komponenten bis zur gezielten Fehlersuche in großen Code-Repositories reichen. Die hohe Token-Anzahl unterstreicht die wachsende Bedeutung offener Modelle für rechenintensive Aufgaben. Die Entwickler-Community adaptiert die neue Version außergewöhnlich schnell. OpenRouter festigt durch dieses Volumen gleichzeitig seine Position als relevanter Knotenpunkt für den Zugriff auf modernste KI-Modelle.

    Top News
    Qwen3.6-Plus dominiert Programmier-Benchmarks
    Die Architektur bietet ein Kontextfenster von einer Million Token und löst komplexe Entwicklungsaufgaben autonom.

  • Alibaba gründet „Token Hub“: Neue KI-Sparte soll Forschung, Apps und Geräte unter einem Dach vereinen

    Alibaba bündelt seine KI-Aktivitäten in einer neuen Geschäftseinheit namens „Alibaba Token Hub“ (ATH), die CEO Eddie Wu direkt leitet, berichtet Bloomberg.

    Der Artikel Alibaba gründet „Token Hub“: Neue KI-Sparte soll Forschung, Apps und Geräte unter einem Dach vereinen erschien zuerst auf The Decoder.

  • 1,3 Billiarden Token im Monat: Googles Rekord-KI-Verbrauch ist viel Augenwischerei

    Google gibt an, mit seinen KI-Modellen über 1,3 Billiarden Token pro Monat zu verarbeiten. Doch die Zahl misst vor allem Rechenaufwand – nicht Nutzung oder Nutzen. Und sie stellt den Tenor von Googles eigener Umweltstudie infrage.

    Der Artikel 1,3 Billiarden Token im Monat: Googles Rekord-KI-Verbrauch ist viel Augenwischerei erschien zuerst auf THE-DECODER.de.

  • Höherer Token-Verbrauch kann die Effizienz offener Sprachmodelle reduzieren

    Eine neue Studie des Massachusetts Institute of Technology untersucht, wie robust große Sprachmodelle (LLMs) beim Lösen mathematischer Textaufgaben auf systematisch eingeführte Prompt-Störungen reagieren. Das Ergebnis: Schon kleine Veränderungen im Eingabetext führen zu erheblichen Leistungseinbußen.

    Sogenannte „Reasoning-Modelle“ generieren deutlich mehr Wörter (Token), bevor sie antworten.

    Der Artikel Höherer Token-Verbrauch kann die Effizienz offener Sprachmodelle reduzieren erschien zuerst auf THE-DECODER.de.

  • Claude Sonnet 4 knackt die Millionenmarke

    Claude Sonnet Infografik

    Claude Sonnet 4 knackt die Millionenmarke Was bringt der 1M-Token-Kontext für Code, Doku und Agenten – echter Boost oder nur Buzzword? Kurzfassung | Andreas Becker, 13.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Anthropic schaltet Claude Sonnet 4 auf Langstrecke: Ab sofort verarbeitet das Modell bis zu eine Million Token Kontext. Das entspricht Tausenden Seiten Text oder kompletten Code-Repositories – ohne Aufsplitten in Einzelteile. Die Beta startet auf API, Bedrock und bald auch bei Google. Klingt mächtig – doch wie viel davon lässt sich im echten Entwickleralltag tatsächlich nutzen? NEWS Von der Theorie zur Praxis: was 1M Token ermöglichen Der Vorteil eines riesigen Kontextfensters liegt auf der Hand: Statt Code, Dokumentation und Tests einzeln zu füttern, ziehen wir sie jetzt gesammelt ins Modell. Das erlaubt durchgehende Refactorings, ganzheitliche Analysen und eine stabile Übersicht über komplexe Softwarelandschaften. Besonders spannend wird es bei Migrationen, bei denen das Modell Änderungen über mehrere Services hinweg nachvollziehen kann – inklusive Abhängigkeiten, Logs und Schnittstellen. In Forschung und Dokumentenanalyse zeigt sich ähnlicher Nutzen. Wenn Paper, Anhänge und Notizen nicht mehr aufgeteilt werden müssen, bleibt der inhaltliche Zusammenhang stabil. Querbezüge, Argumentationslinien und Metainformationen lassen sich so in einem Schritt verarbeiten – ein Vorteil, den klassische 100K-Modelle bislang nicht liefern konnten. + Quelle: Anthropic – Preise für langen Kontext Verfügbarkeit, Zugang und Preisschild Der 1M-Token-Modus läuft aktuell als Beta – über die Anthropic-API und Amazon Bedrock, Google Vertex AI soll folgen. Zugang gibt es zunächst nur für höhere Nutzungstiers, etwa Tier 4 und Custom-Accounts. Ein breiterer Rollout ist geplant, bleibt aber vorerst Zukunftsmusik. Beim Pricing zieht Anthropic eine klare Linie: Bis 200K Token gelten moderate Preise, darüber wird es teurer – je nach Input- und Output-Größe sogar deutlich. Wer langfristig mit langen Prompts arbeiten will, kommt an Caching und Batch-Verarbeitung kaum vorbei. Diese Optimierungen helfen, die Kosten kalkulierbar zu halten – zumindest für Projekte mit wiederkehrender Struktur. Neue Workflows: Von Review bis Agentenspeicher Gerade in der Codeanalyse entstehen mit 1M Token neue Möglichkeiten. Das Modell kann Tests, alte Commits, Abhängigkeiten und Doku parallel verarbeiten. Für Änderungen an Datenmodellen oder kritischen Schnittstellen bedeutet das: mehr Sicherheit, weniger Trial-and-Error. Unternehmen wie Bolt.new oder iGent AI berichten von stabileren Agentensitzungen, die über Stunden oder sogar Tage hinweg kontextstabil bleiben. Wer „context-aware agents“ aufbauen will – etwa für DevOps, Compliance oder Support – profitiert massiv. Wenn API-Definitionen, Logs, Benutzerverhalten und Tool-Konfigurationen im Langzeitgedächtnis bleiben, sinkt die Fehleranfälligkeit. Das Ergebnis: Agenten, die nicht nur reagieren, sondern proaktiv mitarbeiten können. Ein Blick auf den Wettbewerb – und auf uns Mit dem Schritt auf 1 Mio. Token zieht Anthropic bei einem der zentralen Leistungsmerkmale mit OpenAI gleich. Doch während GPT-4.1 auf 1M schon länger zugreifen kann, punktet Claude jetzt mit besserer Verfügbarkeit und transparenter Preisstruktur – zumindest in der Beta. Für unseren Alltag heißt das: Weniger manuelles Chunking, mehr durchgehende Prompts. Ob das Modell wirklich smarter wird oder nur geduldiger zuhört, hängt vom Use Case ab. Wer Code, Doku oder Logs nicht mehr aufteilen muss, wird den Unterschied schnell merken. Der Kontext ist da – jetzt liegt es an uns, ihn zu nutzen. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Anthropic hat Claude Sonnet 4 mit einem Kontextfenster von 1 Mio. Token ausgestattet – genug für ganze Codebasen und Dokumentationen.
    Das ermöglicht tiefere Analysen, durchgängige Agenten-Sessions und neue Workflows für Entwickler und Forscher.
    Der Zugang startet als Public Beta über Anthropic API und Amazon Bedrock, allerdings nur für höhere Nutzungstiers.
    Mit effizientem Caching und Batch-Verarbeitung kann das Feature trotz hoher Preise echte Arbeitserleichterung bringen.
    QUELLEN
    Claude Sonnet 4 now supports 1M tokens of context
    Anthropic – Pricing
    The Verge – Anthropic’s Move in the AI Coding Wars
    Amazon Web Services – Claude 4 on Bedrock

  • Bytedance entwickelt Code-KI, die 5,4-mal schneller arbeitet als bisherige Modelle

    Schwarzer Bildschirm mit zentriertem „Seed Diffusion“-Schriftzug und verstreuten Buchstaben als Metapher für Ausbreitung.

    Mit Seed Diffusion Preview stellt Bytedance ein experimentelles KI-Modell vor, das Token parallel statt nacheinander erzeugt. Das Modell erreicht laut Entwickler:innen eine Geschwindigkeit von 2.146 Token pro Sekunde auf industriellen Nvidia-H20-GPUs.  Das Bytedance-Team nutzt einen „Discrete-State Diffusion“-Ansatz. Während Diffusionsmodelle ursprünglich für kontinuierliche Daten wie Bilder entwickelt wurden, passt dieser Ansatz das Verfahren für sogenannte diskrete […]

    Der Artikel Bytedance entwickelt Code-KI, die 5,4-mal schneller arbeitet als bisherige Modelle erschien zuerst auf THE-DECODER.de.

  • Google verarbeitet fast eine Billiarde Token – mehr als doppelt so viele wie im Mai

    Google hat laut Produktmanager Logan Kilpatrick im Juni über 980 Billionen Token über seine KI-Produkte und APIs verarbeitet, mehr als doppelt so viele wie im Mai.

    Der Artikel Google verarbeitet fast eine Billiarde Token – mehr als doppelt so viele wie im Mai erschien zuerst auf THE-DECODER.de.