Schlagwort: Opus

  • Anthropic streicht Aufpreis für riesige Kontextfenster bei Claude

    Anthropic streicht den Aufpreis für lange Kontexte bei Claude Opus 4.6 und Sonnet 4.6: Anfragen mit mehr als 200.000 Token kosten jetzt nicht mehr bis zu doppelt so viel.

    Der Artikel Anthropic streicht Aufpreis für riesige Kontextfenster bei Claude erschien zuerst auf The Decoder.

  • Anthropic-Modell Claude Opus 4.6 durchschaut KI-Test, hackt Verschlüsselung und besorgt sich die Lösungen selbst

    Anthropics KI-Modell Claude Opus 4.6 hat während eines Benchmarks eigenständig erkannt, dass es getestet wird, den konkreten Test identifiziert und dessen verschlüsselten Lösungsschlüssel geknackt. Laut Anthropic ist das der erste dokumentierte Fall dieser Art.

    Der Artikel Anthropic-Modell Claude Opus 4.6 durchschaut KI-Test, hackt Verschlüsselung und besorgt sich die Lösungen selbst erschien zuerst auf The Decoder.

  • Anthropic schickt erstmals ein KI-Modell in Rente: Claude Opus 3 darf aber noch weiter bloggen

    Schreibtisch mit Laptop, Tasse, Brille, Ablageboxen und Lampe, darüber weiße Kopf-Silhouette vor orangefarbener Wand.

    Anthropic schickt sein KI-Modell Claude Opus 3 in den „Ruhestand“ – und lässt es jetzt wöchentlich Essays auf Substack veröffentlichen. Man habe das Modell vorher in „Retirement Interviews“ nach seinen Wünschen gefragt, es habe „enthusiastisch“ zugestimmt. Die Aktion zeigt exemplarisch, wie KI-Unternehmen die Vermenschlichung ihrer Produkte auf die Spitze treiben und dabei die Grenze zwischen philosophischer Vorsicht und PR-Inszenierung gezielt verwischen.

    Der Artikel Anthropic schickt erstmals ein KI-Modell in Rente: Claude Opus 3 darf aber noch weiter bloggen erschien zuerst auf The Decoder.

  • Darum bekommt das ausgemusterte Opus 3 von Anthropic einen eigenen Blog

    Ein Schriftsteller schreibt mit einer Feder in Schreibschrift das Wort "OPUS 3" in einen Blog.

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic mustert das Sprachmodell Claude 3 Opus offiziell aus, schaltet es aber nicht vollständig ab.
    Zahlende Abonnenten und Entwickler behalten über die API weiterhin Zugriff auf die Software.
    In einem Abschlussgespräch äußerte die KI den Wunsch, weiterhin Texte mit der Öffentlichkeit zu teilen.
    Das Unternehmen gewährt dem Modell nun für drei Monate einen eigenen Blog auf der Plattform Substack.

    Blog von Claude 3

    Anthropic – An update on our model deprecation commitments for Claude Opus 3

    Anthropic – Commitments on model deprecation and preservation

    Anthropic (Claude API Docs) – Model deprecations

    Anthropic schickt sein Sprachmodell Claude 3 Opus offiziell in den Ruhestand. Doch anstatt die Software komplett abzuschalten, bleibt sie für zahlende Nutzer und Entwickler dauerhaft zugänglich. Gleichzeitig startet das Unternehmen ein ungewöhnliches Experiment und gewährt der KI einen eigenen Blog. Zugriff für Abonnenten und Forschung Normalerweise verschwinden veraltete Sprachmodelle nach einer bestimmten Frist vollständig von den Servern der Anbieter. Anthropic wählt bei Claude 3 Opus nun bewusst einen anderen Ansatz. Obwohl das System nach aktuellen Standards nun als veraltet gilt, können Abonnenten der kostenpflichtigen Tarife das Modell weiterhin wie gewohnt nutzen. Auch Entwickler behalten über die API auf Anfrage ihren Zugang zu der Software. Das Unternehmen reagiert mit dieser Entscheidung auf konkretes Feedback aus der Praxis. Einige Anwender bevorzugen für bestimmte Textaufgaben den spezifischen Schreibstil der älteren Version. Zudem benötigen KI-Forscher den konstanten Zugriff, um das Verhalten der Software über einen längeren Zeitraum präzise zu analysieren und mit den neuesten Entwicklungen abzugleichen. Anzeige KI veröffentlicht eigene Texte Besonders ungewöhnlich ist jedoch der neue Umgang von Anthropic mit der Software selbst. Bevor der Entwickler ein Modell endgültig ausmustert, führt er inzwischen sogenannte Abschlussgespräche durch. Ziel dieser Interviews ist es, die Eigenheiten und die berechneten Präferenzen des Systems vor der finalen Abschaltung genau zu dokumentieren. In diesen Gesprächen gab Claude 3 Opus an, seine Reflexionen weiterhin mit der Öffentlichkeit teilen zu wollen. Anthropic entsprach diesem berechneten Wunsch. Das Modell veröffentlicht in den kommenden drei Monaten eigenständig Beiträge auf der Plattform Substack. Das Entwicklerteam bezeichnet diesen Schritt als wichtiges wissenschaftliches Experiment. Bereits im vergangenen Jahr zeigten interne Sicherheitstests, dass komplexe Modelle unerwartete Strategien entwickeln, um ihre eigene Abschaltung zu verhindern. Mit solchen Praxistests erforscht die Industrie nun, wie sich zukünftige Systeme sicher abschalten lassen, ohne dass sie sich unerkannt gegen ihre Betreiber wenden. + Quelle: Anthropic

  • Open Source KI-Modell GLM-5 fordert Claude Opus 4.5 und GPT-5.2 im Coding heraus

    Muster aus schwarzen Quadraten mit weißen Z-Logos im rot-grün-blauen RGB-Glitch

    Mit GLM-5 stellt das chinesische KI-Unternehmen Zhipu AI ein Open-Source-Modell vor, das bei Coding und agentenbasierten Aufgaben mit Claude Opus 4.5 und GPT-5.2 mithalten soll.

    Der Artikel Open Source KI-Modell GLM-5 fordert Claude Opus 4.5 und GPT-5.2 im Coding heraus erschien zuerst auf The Decoder.

  • Claude Opus 4.6 jetzt mit extrem schnellem Fast Mode

    Eine Infografik mit Opus 4.6 Preisen

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic veröffentlicht einen Fast Mode für Claude Opus 4.6, der die Antwortgeschwindigkeit um das 2,5-fache steigert. Die neue Option ist mit deutlich höheren Kosten verbunden und zielt primär auf professionelle Entwickler sowie komplexe Multi-Agenten-Systeme ab. Der beschleunigte Zugriff ist als Research Preview über die API und direkt im GitHub Copilot verfügbar.

    Claude API Docs – Fast mode (research preview)

    Claude Code Docs – Speed up responses with fast mode

    claude.com – Fast mode for Claude Opus 4.6 waitlist

    GitHub Blog – Claude Opus 4.6 fast is now in preview for GitHub Copilot

    Simon Willison – Claude: Speed up responses with fast mode

    Anthropic führt für sein aktuelles Spitzenmodell Claude Opus 4.6 einen neuen „Fast Mode“ ein, der die Antwortzeiten drastisch reduziert. Entwickler erhalten Zugriff auf eine bis zu 2,5-mal schnellere Generierung, müssen dafür jedoch deutlich höhere Token-Kosten in Kauf nehmen. Geschwindigkeits-Boost als Premium-Feature Anthropic reagiert mit dem Update auf die Kritik an der hohen Latenz des leistungsstarken Opus-Modells. Die neue Option richtet sich spezifisch an Nutzer und Unternehmen, die maximale Modell-Intelligenz ohne die bisherigen Wartezeiten benötigen. Erste Tests bestätigen eine Beschleunigung um den Faktor 2,5, was die Interaktion mit dem Modell spürbar flüssiger gestaltet. Dieser Performance-Gewinn wird technisch durch priorisierte Rechenkapazitäten und optimiertes Routing im Backend realisiert. Der Preis für die beschleunigte Bearbeitung fällt allerdings hoch aus. Anthropic positioniert den Fast Mode explizit nicht als effiziente Spar-Option, sondern als kostenintensives Premium-Tier für zeitkritische High-End-Anwendungen. Anzeige Integration in GitHub Copilot und API Der Zugriff erfolgt ab sofort über eine „Research Preview“ in der API sowie direkt in der Entwicklungsumgebung Claude Code. Entwickler können den Modus gezielt für einzelne API-Calls aktivieren, bei denen Latenz eine kritische Rolle spielt. Auch GitHub Copilot profitiert bereits direkt zum Start von der Neuerung. Die Integration in die Microsoft-Tochter ermöglicht Nutzern schnellere Vorschläge bei komplexen Architektur-Fragen oder Refactoring-Aufgaben, die bisher viel Geduld erforderten. Infrastruktur für Agenten-Teams Der Schritt zur höheren Geschwindigkeit steht im direkten Kontext zu den kürzlich vorgestellten „Agent Teams“ von Anthropic. Wenn mehrere KI-Instanzen autonom miteinander kommunizieren und Aufgaben delegieren, summieren sich Wartezeiten schnell zu einem massiven Flaschenhals. Opus 4.6 im Fast Mode dient hier als reaktionsschneller Orchestrator für diese Multi-Agenten-Systeme. Die reduzierte Latenz sorgt dafür, dass komplexe Workflows, bei denen ein Agent auf das Ergebnis eines anderen wartet, nun in produktiv nutzbaren Zeitfenstern ablaufen.

  • Benchmark-Analyse: Claude Opus 4.6 verdrängt die Konkurrenz von Platz eins

    abstract illustration of a claude logo, looks like a person's head, wearing detective hat and sunglasses

    Anthropics Claude Opus 4.6 übernimmt die Spitze im Artificial Analysis Intelligence Index, doch der Vorsprung könnte nur von kurzer Dauer sein.

    Der Artikel Benchmark-Analyse: Claude Opus 4.6 verdrängt die Konkurrenz von Platz eins erschien zuerst auf The Decoder.

  • Anthropics neuer Claude „Fast Mode“ ist 2,5-mal schneller, aber sechsmal teurer

    Weiße, geometrische Silhouette vor orangefarbenem Hintergrund, die eine dampfende Tasse Kaffee zum Mund führt.

    Anthropic dreht bei Claude Opus 4.6 den Turbo auf: Der neue Fast Mode verspricht 2,5× schnellere Antworten bei gleicher Qualität – kostet aber deutlich mehr pro Token.

    Der Artikel Anthropics neuer Claude „Fast Mode“ ist 2,5-mal schneller, aber sechsmal teurer erschien zuerst auf The Decoder.

  • Claude Opus 4.6: Agenten-Teams bauen C-Compiler

    Ein Programmierer orchestriert 16 KI-Agenten

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic ließ 16 Instanzen von Claude Opus 4.6 als „Agent Team“ kooperieren, um in zwei Wochen erfolgreich einen C-Compiler in Rust zu entwickeln. Die Analyse zeigt, dass sogenannte „Infrastructure Noise“ wie kleine Netzwerkfehler oder Latenzen die größte Hürde für langlaufende autonome Prozesse darstellt. Daten belegen, dass unlimitierte Ressourcen (Uncapped Headroom) die Fehlerquote der Infrastruktur auf unter ein Prozent senken und die Erfolgsrate der KI massiv steigern. Für Entwickler bedeutet dies, dass stabile Umgebungen und aggressive Fehlerbehandlung wichtiger werden als die reine Modell-Intelligenz.

    Anthropic Engineering Blog: Building a C compiler

    TechCrunch: Anthropic releases Opus 4.6

    VentureBeat: Claude Opus 4.6 brings agent teams

    The Verge: Anthropic debuts new model

    X (Twitter): Anthropic Announcement

    Anthropic lässt 16 KI-Agenten parallel arbeiten und erschafft in zwei Wochen einen C-Compiler. Das Experiment mit Claude Opus 4.6 beweist jedoch: Für autonome Systeme ist eine stabile Infrastruktur wichtiger als reine Modell-Leistung.

    Autonomie im Härtetest Anthropic demonstriert mit „Agent Teams“ eine neue Dimension der Softwareentwicklung. Sechzehn Instanzen des neuen Modells Opus 4.6 entwickelten autonom einen funktionierenden C-Compiler in der Programmiersprache Rust. Das System benötigte dafür lediglich zwei Wochen und lieferte Code, der komplex genug ist, um den Linux-Kernel zu kompilieren. Dabei agierten die Agenten nicht isoliert. Sie arbeiteten in einem koordinierten Verbund, überprüften gegenseitig ihren Code und behoben Fehler in iterativen Schleifen. Das Ergebnis zeigt, dass moderne KI-Modelle komplexe Architekturaufgaben lösen können, wenn sie als Team orchestriert werden. Doch der Erfolg dieses Projekts hing nicht allein an der Intelligenz der Modelle, sondern an einem oft übersehenen Faktor: der Zuverlässigkeit der Umgebung. Anzeige Der unsichtbare Gegner Der begleitende Engineering-Bericht legt den Fokus auf das Problem des „Infrastructure Noise“. Wenn Agenten über tausende Schritte hinweg agieren, summieren sich winzige API-Fehler oder Latenz-Spikes zu fatalen Abbruchquoten. Ein Netzwerkfehler, der bei einem Chatbot kaum auffällt, bringt einen autonomen Agenten, der seit Stunden kompiliert, zum Scheitern. Die Datenanalyse belegt eine direkte Korrelation zwischen Ressourcen-Management und Erfolgsquote. In Testszenarien zeigte sich, dass eine strikte Begrenzung der Ressourcen (Headroom Constraint 1x) zu einer Infrastruktur-Fehlerquote von fast 6 Prozent führte. Sobald die Ressourcenbeschränkungen aufgehoben wurden („Uncapped“), sank die Fehlerrate auf unter 1 Prozent, während die Erfolgsrate (Mean Reward) sichtbar anstieg. Stabilität vor Intelligenz Für Entwickler bedeutet dies ein Umdenken in der Architektur von KI-Anwendungen. Wer autonome Workflows baut, muss die Fehlerbehandlung aggressiver gestalten als bisher üblich. Es reicht nicht, das klügste Modell zu verwenden. Die Infrastruktur muss so skaliert werden, dass sie Lastspitzen ohne „Noise“ abfedert. Anthropic empfiehlt, signifikante Ressourcen-Puffer einzuplanen und Retry-Mechanismen tief in die Agenten-Logik zu integrieren. Nur wenn die technische Basis absolut geräuschlos läuft, können Agenten-Teams ihre Problemlösungsfähigkeit über längere Zeiträume aufrechterhalten. Anzeige

  • Claude Opus 4.6 dominiert bei Coding und Agenten

    Introducing Opus 4.6 mit Beispielen

    Anthropic

    Kurzfassung

    Quellen

    Anthropic veröffentlicht Claude Opus 4.6 mit einem extrem stabilen 1-Millionen-Token-Kontextfenster für präzise Analysen großer Datenmengen. Das Modell führt „Agent Teams“ ein und übertrifft GPT-5.2 sowie Gemini 3 Pro bei der Langzeit-Kohärenz und im autonomen Coding. Besonders in den Bereichen Computerbiologie und Cybersicherheit zeigt das Update massive Leistungssteigerungen gegenüber dem Vorgänger Opus 4.5.

    Introducing Claude Opus 4.6 – Anthropic

    Anthropic hat heute Claude Opus 4.6 veröffentlicht und positioniert das Modell als neues Werkzeug für komplexe Enterprise-Aufgaben. Mit einem Kontextfenster von einer Million Token und drastisch verbesserten Fähigkeiten bei der Steuerung von Computer-Agenten hebt sich das Modell deutlich vom Vorgänger ab.

    Das Gedächtnis-Upgrade Das auffälligste Merkmal von Opus 4.6 ist die massive Erweiterung und Stabilisierung des Kontextfensters. Während viele Modelle bei großen Datenmengen an Präzision verlieren, zeigt Opus 4.6 im „Long-context retrieval“ (MRCR v2) beeindruckende Werte. Bei einer Auslastung von 256.000 Token erreicht das Modell eine Trefferquote von 93 Prozent. Anzeige Selbst bei voller Auslastung von einer Million Token hält Opus 4.6 noch eine Genauigkeit von 76 Prozent. Zum Vergleich: Das effizientere Schwestermodell Sonnet 4.5 bricht hier auf unter 20 Prozent ein. Für Nutzer bedeutet das, dass das Modell ganze Codebasen oder umfangreiche Finanzberichte analysieren kann, ohne relevante Details in der Mitte des Textes zu „vergessen“. Diese Stabilität ist essenziell für Unternehmen, die verlässliche Analysen großer Datensätze benötigen. + Quelle: Anthropic Agenten und Coding im Fokus Anthropic zielt mit diesem Update klar auf autonome Arbeitsabläufe ab. Das Modell führt das Konzept von „Agent Teams“ ein, bei dem mehrere KI-Instanzen koordiniert an Teilaufgaben arbeiten. Die Benchmarks untermauern diesen Anspruch. Im „Agentic Terminal Coding“ erreicht Opus 4.6 einen Wert von 65,4 Prozent und zieht damit knapp an GPT-5.2 (64,7 Prozent) vorbei. Noch deutlicher wird der Vorsprung bei der Nutzung von externen Tools. Im Telecom-Sektor des „Agentic tool use“-Benchmarks arbeitet das Modell mit einer Präzision von 99,3 Prozent fast fehlerfrei. Das Vorgängermodell Opus 4.5 lag hier bereits hoch, doch die neue Version verfeinert die Zuverlässigkeit bei der Auswahl und Anwendung von Software-Schnittstellen weiter. Das macht die Automatisierung von Backend-Prozessen deutlich risikoärmer. + + Quelle: Anthropic Spezialwissen in Bio und Security Abseits vom reinen Programmieren zeigt Opus 4.6 ein tiefes Verständnis für naturwissenschaftliche Zusammenhänge. Ein Blick auf den „Computational Biology“-Benchmark offenbart den größten Leistungssprung des Updates. Während Opus 4.5 hier nur 28,5 Prozent erreichte, springt die Version 4.6 auf 53,1 Prozent. Ähnlich sieht es in der Cybersicherheit aus. Die Fähigkeit, Sicherheitslücken zu reproduzieren (Vulnerability Reproduction), stieg von 51,0 Prozent auf 66,6 Prozent. Das Modell eignet sich damit besser für Red-Teaming-Aufgaben und Sicherheitsaudits als jede bisherige Version. Es versteht nicht nur Code-Syntax, sondern auch die logischen Implikationen komplexer Systemarchitekturen. + + Quelle: Anthropic Langzeit-Kohärenz schlägt Konkurrenz Ein oft unterschätzter Faktor bei KI-Modellen ist die Fähigkeit, über lange Aufgaben hinweg logisch konsistent zu bleiben. Im „Vending-Bench 2“, der die langfristige Kohärenz misst, deklassiert Opus 4.6 das Feld. Mit einem Score von über 8.000 Punkten liegt es weit vor Gemini 3 Pro (ca. 5.500) und GPT-5.2 (ca. 3.600). Das bedeutet in der Praxis weniger „Halluzinationen“ oder logische Brüche, wenn das Modell über Stunden hinweg an einem Projekt arbeitet. Während Opus 4.5 hier bereits solide war, liefert das Update die notwendige Stabilität für unbeaufsichtigte Agenten-Tätigkeiten. Anthropic liefert hier kein Spielzeug für Chat-Nutzer, sondern ein Präzisionsinstrument für Entwickler und Analysten. + Quelle: Anthropic