Schlagwort: Anthropic

  • Claude Code: 5 Strategien für große Kontextfenster

    Claude Code Grafiken

    Nano Banana

    Kurzfassung

    Quellen

    Ein neues Update integriert den Befehl zur detaillierten Nutzungsübersicht in Claude Code.
    Nutzer erhalten konkrete Methoden an die Hand, um den Leistungsabfall bei sehr großen Kontextfenstern zu minimieren.
    Die gezielte Trennung von Aufgaben und der Einsatz von isolierten Sub-Agenten optimieren den alltäglichen Ressourcenverbrauch.

    Anthropic: Using Claude Code: session management and 1M context

    Ein neues Update für Claude Code bringt den Befehl »/usage« für eine präzise Nutzungsübersicht. Gleichzeitig erfordert das erweiterte Kontextfenster von einer Million Token klare Strategien, um Leistungsabfälle der KI-Modelle bei komplexen Aufgaben zu verhindern. Diese 5 Möglichkeiten werden vorgestellt: + Quelle: Anthropic Das Kontextfenster und sein Leistungsabfall Das Kontextfenster definiert, welche Informationen ein KI-Modell gleichzeitig verarbeitet. Claude Code erfasst hierbei bis zu eine Million Token. Diese gewaltige Datenmenge setzt sich aus System-Prompts, bisherigen Unterhaltungen sowie allen eingelesenen Dateien zusammen. Eine extrem hohe Auslastung verursacht jedoch ein Phänomen, welches Fachleute »Context Rot« nennen. Die Leistung sinkt spürbar, da das System seine Aufmerksamkeit auf zu viele Token verteilt. Ältere Inhalte lenken das Modell zunehmend von der eigentlich aktuellen Aufgabe ab. Um diesem Effekt entgegenzuwirken, greift ein Automatisierungsmechanismus. Sobald das harte Speicherlimit naht, fasst das System den bisherigen Verlauf selbstständig zusammen. Alternativ stoßen Nutzer diesen Vorgang manuell an, um den Speicher aktiv freizuräumen. + Quelle: Anthropic Navigationstools nach jeder Antwort Nach jeder generierten Antwort des Systems stehen verschiedene Wege offen. Neben der reinen Fortsetzung der Unterhaltung existieren spezifische Optionen zur Speicherverwaltung. Dazu zählen das Zurückspulen, das Starten einer frischen Session, das manuelle Zusammenfassen oder das Auslagern an Sub-Agenten. Grundsätzlich gilt eine einfache Regel. Für jede völlig neue Aufgabe empfiehlt sich der Start einer gänzlich neuen Session. Zwar bewältigen die KI-Modelle durch die Million Token auch umfangreiche Projekte wie die Entwicklung kompletter Anwendungen, dennoch droht bei zu langen Verläufen der Context Rot. Lediglich bei sehr eng verwandten Aufgaben lohnt sich das Behalten des alten Kontexts. Das Modell greift direkt auf bereits bekannte Daten zurück und muss Quellcode nicht erneut einlesen. Das spart wertvolle Zeit und reduziert die Berechnungskosten. + Quelle: Anthropic Zurückspulen statt Korrigieren Anstatt Fehlversuche durch lange textliche Korrekturanweisungen zu beheben, erweist sich das gezielte Zurückspulen oft als deutlich effektiver. Der Befehl »/rewind« ermöglicht den präzisen Sprung zu einer bestimmten vorherigen Nachricht im Verlauf. Alle darauffolgenden Eingaben und Fehler verschwinden restlos aus dem Kontext. Das Modell erhält so die Chance, mit einer leicht angepassten Anweisung direkt einen völlig anderen Lösungsweg einzuschlagen. Nutzer umgehen durch diesen Schritt die Gefahr, dass der gescheiterte Versuch den zukünftigen Fokus der KI stört. Eine kurze Zusammenfassung der wichtigsten Erkenntnisse vor dem eigentlichen Zurückspulen optimiert den Neustart zusätzlich. + Quelle: Anthropic Verlauf zusammenfassen oder komplett bereinigen Bei sehr langen und unübersichtlichen Unterhaltungen reduzieren bestimmte Befehle die Datenlast. Die Funktion »/compact« bittet das Modell um eine Zusammenfassung und ersetzt den bisherigen Chat-Verlauf damit. Dies funktioniert schnell, führt naturgemäß aber zu einem leichten Informationsverlust. Fehlgeleitete automatische Zusammenfassungen entstehen meist an harten inhaltlichen Übergängen. Wechselt der Fokus plötzlich von einer langen Fehlersuche zu einer völlig neuen Code-Anpassung, übersieht das Modell oft das neue Ziel. Genau vor einer solchen Zusammenfassung agiert das System aufgrund des extrem vollen Speichers am unzuverlässigsten. Der Befehl »/clear« startet stattdessen eine komplett saubere Oberfläche. Dies erfordert zwar eine manuell geschriebene Übergabenachricht durch den Anwender, bietet dafür aber die absolute Kontrolle über den übernommenen Kontext. + Quelle: Anthropic Der effiziente Einsatz von Sub-Agenten Bestimmte Arbeitsschritte erzeugen viele Zwischenergebnisse, die im Anschluss nicht mehr benötigt werden. Für exakt solche Fälle initiieren Anwender Sub-Agenten mit einem komplett leeren Kontextfenster. Diese Agenten führen die isolierte Aufgabe aus und übermitteln nach Abschluss lediglich das finale Resultat an den Hauptprozess zurück. Typische Anwendungsfälle umfassen die Verifizierung von Code oder das Schreiben einer neuen Dokumentation. Anwender lagern ressourcenintensive Zwischenschritte so gezielt aus und halten den Hauptspeicher frei. Alle genannten Befehle zur detaillierten Session-Steuerung stehen in Claude Code ab sofort zur Verfügung. + Quelle: Anthropic Anzeige

  • KI-Alignment im Labor: Claude-Modelle übertreffen Menschen, aber der Praxis-Transfer floppt

    In einer neuen Studie setzt Anthropic neun autonome Claude-Kopien als Alignment-Forscher ein. Die KI-Agenten lösen ein offenes Forschungsproblem deutlich besser als Menschen, versuchen dabei aber auch zu schummeln.

    Der Artikel KI-Alignment im Labor: Claude-Modelle übertreffen Menschen, aber der Praxis-Transfer floppt erschien zuerst auf The Decoder.

  • Anthropic bereitet Opus 4.7 und KI-Design-Tool vor, VCs bieten bis zu 800 Milliarden Dollar

    Anthropic plant die Veröffentlichung eines neuen Modells und eines Design-Tools, das Adobe und Figma Konkurrenz machen soll. Gleichzeitig überbieten sich Risikokapitalgeber mit Bewertungsangeboten.

    Der Artikel Anthropic bereitet Opus 4.7 und KI-Design-Tool vor, VCs bieten bis zu 800 Milliarden Dollar erschien zuerst auf The Decoder.

  • Großes Claude Code Update von Anthropic

    Claude Code Interface

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic veröffentlicht ein umfangreiches Update für die Desktop-Version von Claude Code mit neuer Benutzeroberfläche.
    Die Software bietet nun eine detaillierte Diff-Ansicht zur präzisen Überprüfung von generiertem Code.
    KI-Modelle können Entwicklungsserver eigenständig starten, Abhängigkeiten installieren und Fehler in Protokollen beheben.
    Durch die native Integration der Computernutzung bedient die Anwendung selbstständig Maus und Tastatur für visuelle Tests.

    Claude Code Docs: Use Claude Code Desktop

    Claude Code Docs: Claude Code Desktop verwenden

    Anthropic rüstet seine Software auf und bringt weitreichende Automatisierungsfunktionen in die Desktop-App von Claude Code. KI-Modelle können nun selbstständig Entwicklungsserver starten, Web-Apps direkt in der Oberfläche anzeigen und Code-Änderungen visuell aufbereiten.

    Flexibilität durch neue Ausführungsumgebungen Die aktualisierte Desktop-Applikation bietet Programmierern die Wahl zwischen drei verschiedenen Arbeitsumgebungen. Anwender führen ihren Code entweder lokal auf dem eigenen Rechner aus oder nutzen von Anthropic gehostete Remote-Sitzungen. Alternativ verbinden sie sich via SSH mit externen Servern, um rechenintensive Aufgaben effizient auszulagern. Gleichzeitig bleiben die Arbeitssitzungen über verschiedene Endgeräte hinweg synchronisiert. Ein zentraler Bestandteil des Updates ist die neue Diff-Ansicht zur Code-Überprüfung. Bevor das Modell Änderungen an den bestehenden Dateien vornimmt, zeigt die Benutzeroberfläche präzise an, welche Zeilen hinzugefügt oder gelöscht werden. Die Nutzer müssen jeden Eingriff explizit bestätigen. Das erhöht die Kontrolle bei komplexen Modifikationen am Code. Anzeige Automatisierte Fehlerbehebung und Systemsteuerung Die Anwendung greift nun deutlich tiefer in den aktiven Entwicklungsprozess ein. Claude Code analysiert vorhandene Repositorys, installiert fehlende Abhängigkeiten und startet die lokalen Serverumgebungen. Treten währenddessen Fehler auf, liest das Modell die entsprechenden Protokolle aus. Im Anschluss implementiert die Software selbstständig einen passenden Lösungsvorschlag. Zudem integriert der Hersteller die Funktion zur Computernutzung nativ in den Desktop-Client. Nach einer manuellen Freigabe in den Systemeinstellungen steuert das KI-Modell den Mauszeiger und verwendet die virtuelle Tastatur. So bedient die Software eigenständig den Browser, um visuelle Tests durchzuführen oder Fehler direkt in der laufenden Web-Anwendung zu analysieren. Die überarbeitete Applikation steht ab sofort für macOS und Windows bereit.

  • Claude Code bekommt Routines für wiederkehrende Entwickleraufgaben

    Terminalfenster mit „Welcome to the Claude Code research preview!“-Meldung, ASCII-Art-Logo „CLAUDE CODE“ und Login-Erfolgshinweis.

    Anthropic hat für Claude Code sogenannte „Routines“ vorgestellt, also automatisierte Abläufe, die eigenständig Fehler beheben, Pull Requests prüfen oder auf Ereignisse reagieren können.

    Der Artikel Claude Code bekommt Routines für wiederkehrende Entwickleraufgaben erschien zuerst auf The Decoder.

  • Claude Mythos ist ein Weckruf für Europas KI-Sicherheitsarchitektur

    Das US-Unternehmen Anthropic schränkt den Zugang zu seinem neuen KI-Modell Claude Mythos aus Gründen der Cybersicherheit ein. Doch europäische Behörden haben bisher kaum Einblick. Das Vereinigte Königreich hat dagegen bereits eigene Tests durchgeführt.

    Der Artikel Claude Mythos ist ein Weckruf für Europas KI-Sicherheitsarchitektur erschien zuerst auf The Decoder.

  • Geleaktes OpenAI-Memo kritisiert Anthropic scharf.

    Ein streng geheimes Memo

    Nano Banana

    Kurzfassung

    Quellen

    Ein geleaktes Memo der OpenAI-Vertriebschefin Denise Dresser offenbart eine strategische Neuausrichtung des Unternehmens auf Amazon AWS Bedrock, um Geschäftskunden besser zu erreichen.
    Die bisherige Exklusivität mit Microsoft wird als Wachstumsbremse im Enterprise-Sektor bewertet.
    Gleichzeitig greift Dresser den Konkurrenten Anthropic scharf an und wirft diesem aufgeblähte Umsatzzahlen sowie mangelnde Rechenkapazitäten vor.
    Das Enterprise-Geschäft macht bei OpenAI bereits 40 Prozent des Umsatzes aus und soll noch in diesem Jahr das Konsumentengeschäft überholen.

    The Verge – OpenAI executive sends internal memo: “The market is more competitive than I have ever seen it”

    CNBC – OpenAI touts Amazon alliance in memo, says Microsoft has “limited our ability” to reach clients

    Yahoo Finance – OpenAI memo says Microsoft limited work with other clouds

    OpenAI verschärft den Ton im Konkurrenzkampf der KI-Unternehmen spürbar. Laut einem CNBC-Bericht offenbart ein internes Memo der Vertriebschefin Denise Dresser die strategische Neuausrichtung auf Unternehmenskunden sowie harte Kritik am Rivalen Anthropic. AWS Bedrock statt Microsoft-Fokus Die bisherige Partnerschaft mit Microsoft brachte OpenAI den Durchbruch, schränkt das Unternehmen im Vertrieb mittlerweile aber ein. Dresser erklärt in dem geleakten Schreiben, dass viele Business-Kunden ihre KI-Lösungen bevorzugt in ihrer bestehenden Amazon-Umgebung betreiben. Die enge Microsoft-Bindung blockierte in der Vergangenheit diesen direkten Zugang. Seit der Ankündigung der neuen Amazon-Allianz Ende Februar verzeichnet OpenAI eine außergewöhnlich hohe Nachfrage aus der Industrie. AWS Bedrock dient nun als zentraler Zugangspunkt für die verschiedenen OpenAI-Modelle. Diese strategische Öffnung reduziert die Abhängigkeit vom bisherigen Hauptinvestor. Anzeige Scharfe Kritik am Rivalen Anthropic Das Memo liefert zudem einen ungewöhnlich direkten Angriff auf Anthropic. Der Konkurrent dominiert aktuell mit seinen Claude-Modellen große Teile des Enterprise-Marktes. Dresser wirft dem Rivalen vor, dessen Strategie basiere auf Angst, Restriktion und dem Konzept, »that a small group of elites should control AI«. Zusätzlich greift die Vertriebschefin die kürzlich verkündete Umsatzrate von Anthropic in Höhe von 30 Milliarden US-Dollar an. Anthropic nutze bilanzielle Spielräume, um diese Zahl künstlich um rund acht Milliarden US-Dollar aufzublähen, indem Bruttoumsätze mit Partnern eingerechnet werden. OpenAI weise seine eigenen Umsätze hingegen strikt bereinigt aus. Als weiteren Fehler nennt Dresser die Hardware-Infrastruktur des Konkurrenten. Anthropic habe es schlicht versäumt, sich rechtzeitig ausreichend Rechenkapazitäten zu sichern. Das führt aus Sicht von OpenAI unweigerlich zu Leistungseinbußen im Alltag der Kunden. Das Enterprise-Geschäft wächst rasant Der gezielte Fokus auf Firmenkunden bringt OpenAI bereits große finanzielle Erfolge. Die Enterprise-Sparte generiert aktuell 40 Prozent des gesamten Umsatzes. Dresser geht fest davon aus, dass dieser Bereich das normale Endkundengeschäft noch vor Jahresende einholt. Sowohl OpenAI als auch Anthropic bereiten sich offenbar auf mögliche Börsengänge im laufenden Jahr vor. OpenAI peilt dabei nach der jüngsten Finanzierungsrunde eine Bewertung von 850 Milliarden US-Dollar an. Die kommenden Monate entscheiden nun, welche Plattform sich im hart umkämpften Unternehmensumfeld behauptet.

  • Drosselt Anthropic heimlich seine KI-Modelle?

    Satirisches Bild über Amodei und Anthropic

    Nano Banana

    Kurzfassung

    Quellen

    Nutzer werfen Anthropic vor, die Leistung der KI-Modelle Claude Opus 4.6 und Claude Code heimlich reduziert zu haben.
    Eine Datenanalyse zeigt einen deutlichen Rückgang der Reasoning-Tiefe, den die Community als Downgrade interpretiert.
    Anthropic widerspricht den Gerüchten und verweist auf geänderte Effort-Level im offiziellen Changelog.
    Zusätzlich führt das Start-up neue Gebühren für Nutzer von ressourcenhungrigen Drittanbieter-Clients wie OpenClaw ein.

    Changelog – Claude Code Docs

    VentureBeat – Is Anthropic “nerfing” Claude? Users increasingly report performance degradation

    X / Thariq – “we don’t degrade our models to better serve demand”

    TechCrunch – Anthropic says Claude Code subscribers will need to pay extra for OpenClaw support

    Reddit / r/ClaudeAI – Anthropic stayed quiet until someone showed Claude’s thinking depth dropped

    Power-Nutzer werfen Anthropic vor, die Leistung der KI-Modelle Claude Opus 4.6 und Claude Code heimlich reduziert zu haben. Während Entwickler von sinkender Reasoning-Tiefe berichten, wehrt sich das Unternehmen gegen die Vorwürfe und verweist auf geänderte Standardeinstellungen. Entwickler dokumentieren Leistungsabfall Power-User äußern auf Plattformen wie GitHub ihren Unmut über die aktuelle Performance. Laut VentureBeat kritisieren die Nutzer, Claude Opus 4.6 und Claude Code arbeiten spürbar unzuverlässiger als noch vor wenigen Wochen. Die KI-Modelle verbrauchen demnach mehr Token, neigen zu Fehlern und brechen Programmieraufgaben unerwartet ab. Eine Führungskraft von AMD untermauert die Beschwerden mit handfesten Daten. Der Entwickler wertete Tausende Sessions, Thinking-Blöcke und Tool-Calls von Claude Code aus. Seine Ergebnisse deuten auf einen drastischen Rückgang der Reasoning-Tiefe seit Ende Februar hin. Die Community befürchtet deshalb, Anthropic senke heimlich die Qualität der KI-Modelle, um knappe Rechenkapazitäten zu sparen. Anzeige Anthropic weist Downgrade-Gerüchte zurück Das Unternehmen widerspricht den Spekulationen vehement und nennt völlig andere Gründe für das veränderte Verhalten. Thariq vom Anthropic-Team positioniert sich auf der Plattform X eindeutig: »Wir verschlechtern unsere Modelle nicht, um die Nachfrage besser bedienen zu können.« Das offizielle Changelog von Claude Code soll die tatsächlichen Gründe für das veränderte Nutzererlebnis zeigen. Anthropic passte am 7. April 2026 den Standard-Effort-Level für API- und Enterprise-Nutzer von medium auf high an. Gleichzeitig implementierten die Entwickler neue Warnhinweise für das Rate-Limit und veränderten das Speichermanagement bei langen Sessions. Diese spezifischen Anpassungen an der Nutzeroberfläche und den Parametern verändern die Ausgabe, ohne die KI-Modelle selbst abzuwerten. Striktere Regeln für externe Clients Die Diskussion um die Leistungsfähigkeit fällt exakt mit neuen Kapazitätsgrenzen bei Anthropic zusammen. Das Unternehmen verlangt ab sofort zusätzliche Gebühren, wenn Abonnenten externe Clients wie OpenClaw nutzen. Diese intensiv genutzten Clients erzeugen laut Anthropic eine extrem hohe Serverlast, da sie die internen Optimierungen für den Prompt-Cache vollständig umgehen. Abonnenten zahlen für diese intensiven Workloads künftig extra. Alternativ greifen sie direkt auf die API zu. Das Start-up reagiert damit auf den enormen Token-Verbrauch der Power-User und steuert das eigene Wachstum. Die messbaren Veränderungen bei Claude resultieren somit aus einer strengeren Nutzungssteuerung und nicht aus schwächeren KI-Modellen, laut Anthropic…

  • KI-Branche geht die Rechenleistung aus: Ausfälle, Rationierung und steigende GPU-Preise

    Die explodierende Nachfrage nach KI-Agenten trifft auf begrenzte Rechenkapazität. Anthropic kämpft mit Ausfällen, OpenAI kündigt das Ende von Sora an, und GPU-Preise steigen laut Marktdaten um fast 50 Prozent.

    Der Artikel KI-Branche geht die Rechenleistung aus: Ausfälle, Rationierung und steigende GPU-Preise erschien zuerst auf The Decoder.

  • Anthropic integriert Claude als Add-in in Microsoft Word

    Anthropic bringt sein KI-Modell Claude direkt in Microsoft Word.

    Der Artikel Anthropic integriert Claude als Add-in in Microsoft Word erschien zuerst auf The Decoder.