Schlagwort: Code

  • Anthropic übernimmt JavaScript-Runtime Bun zur Stärkung von Claude Code

    Anthropic sichert sich mit der Übernahme von Bun die technische Basis für sein erfolgreiches Coding-Tool Claude Code. Das Open-Source-Projekt soll eigenständig bleiben, entgeht durch den Deal aber dem Zwang, ein eigenes Geschäftsmodell entwickeln zu müssen.

    Der Artikel Anthropic übernimmt JavaScript-Runtime Bun zur Stärkung von Claude Code erschien zuerst auf The Decoder.

  • KI-Modell DeepEyesV2 nutzt Werkzeuge statt Wissen – und schlägt größere Konkurrenz

    Positionserkennungsrätsel: 4×4-Raster mit 16 Comic- und Maskottchen-Figuren, Frage nach der Figur in Reihe 3, Spalte 1.

    DeepEyesV2 ist ein multimodales KI-Modell, das Bilder analysiert, Code ausführt und das Web durchsucht. Statt mit purem Wissen schlägt DeepEyesV2 größere Modelle mit intelligenter Werkzeugnutzung. Das Modell ist unter der Apache-2.0-Lizenz nutzbar.

    Der Artikel KI-Modell DeepEyesV2 nutzt Werkzeuge statt Wissen – und schlägt größere Konkurrenz erschien zuerst auf The Decoder.

  • Anthropic startet Claude Code im Web: KI-Programmierer arbeitet jetzt direkt im Browser

    Anthropic startet Claude Code im Web als Beta-Version. Nutzer können jetzt über den Browser mehrere Programmieraufgaben gleichzeitig an Claude delegieren.

    Der Artikel Anthropic startet Claude Code im Web: KI-Programmierer arbeitet jetzt direkt im Browser erschien zuerst auf THE-DECODER.de.

  • Claude Code jetzt viel einfacher zu nutzen

    anthropic grafik mit code

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic hat sein KI-Programmier-Tool Claude Code als Web-App und für iOS veröffentlicht. Entwickler können nun KI-Agenten parallel in der Cloud statt nur im Terminal nutzen. Das Tool generiert bereits über 500 Millionen Dollar Jahresumsatz und konkurriert direkt mit GitHub Copilot und Google Jules. Der Zugang erfolgt über die Pro- und Max-Abos von Anthropic und läuft als Beta-Preview.

    Anthropic Official – Claude Code on the web Anthropic X/Twitter – Introducing Claude Code on the web announcement Anthropic YouTube – Claude Code on the web (Official Demo) TechCrunch – Anthropic brings Claude Code to the web Engadget – Anthropic brings Claude Code to iOS and the web

    Anthropic verlagert sein KI-Programmierwerkzeug Claude Code aus dem Terminal. Das Tool ist ab sofort als Web-Anwendung und für iOS verfügbar. Dieser Schritt macht die Technologie einem breiteren Publikum zugänglich und verschärft den Wettbewerb mit Microsoft und Google. KI-Agenten direkt in der Cloud Bisher war Claude Code ein Werkzeug für Entwickler, die sich auf der Kommandozeile zu Hause fühlen. Die neue Web-Oberfläche ändert das grundlegend. Nutzer können sich nun direkt im Browser mit ihren GitHub-Konten verbinden und Programmieraufgaben an die KI delegieren. Das System läuft als Beta-Forschungs-Preview für zahlende Pro- und Max-Abonnenten. Der eigentliche Clou ist die Arbeitsweise der KI. Statt nur Code Zeile für Zeile zu vervollständigen, können Entwickler mehrere KI-Agenten parallel in der Cloud starten. Diese Agenten arbeiten in einer isolierten, sicheren Sandbox-Umgebung an komplexen Aufgaben. Sie analysieren den Code, schlagen Änderungen vor und können am Ende sogar fertige Pull-Requests auf GitHub erstellen. Es ist ein Ansatz, der eher einem Team von Junior-Entwicklern ähnelt als einem reinen Autocomplete-Werkzeug.

    Ein 500-Millionen-Dollar-Wettlauf Der Start der Web-App ist ein strategisch wichtiger Zug für Anthropic. Das Unternehmen steht in einem harten Wettbewerb mit GitHub Copilot von Microsoft und Googles KI-Agenten „Jules“. Während Copilot tief in die Entwicklungsumgebung integriert ist und beim Tippen hilft, zielen Claude Code und Jules darauf ab, ganze Aufgabenpakete autonom abzuarbeiten. Der Schritt ins Web scheint sich für Anthropic bereits auszuzahlen. Berichten zufolge ist die Nutzung von Claude Code seit Mai um das Zehnfache gestiegen. Das Produkt allein generiert Schätzungen zufolge einen Jahresumsatz von über 500 Millionen US-Dollar. Diese Zahlen zeigen, dass der Markt für KI-gestützte Entwicklungswerkzeuge rasant wächst. Mit der neuen, leichter zugänglichen Browser-Version dürfte sich dieser Trend weiter beschleunigen.

  • Der große Bluff der KI-Benchmarks ist nun aufgeflogen

    Ein Roboter hat seine Arbeit erledigt, aber schlecht

    Nano Banana

    Kurzfassung

    Quellen

    Google DeepMind stellt mit „Vibe Checker“ eine neue Methode zur Bewertung von KI-generiertem Code vor.
    Das System misst erstmals nicht nur die Funktionalität, sondern auch qualitative Aspekte wie Stil, Lesbarkeit und Logik.
    Tests zeigen, dass selbst Top-KI-Modelle große Schwächen bei der Einhaltung dieser menschlichen Qualitätsstandards haben.
    Die neue kombinierte Metrik korreliert weitaus besser mit den Präferenzen von menschlichen Entwicklern und wird das KI-Training verändern.

    THE DECODER
    New Mobile Life
    AITechSuite
    CompleteAI Training

    Die KI-Branche erlebt einen entscheidenden Wendepunkt. Google DeepMind hat mit „Vibe Checker“ ein System entwickelt, das die Bewertung von KI-Code revolutioniert. Es zählt nicht mehr nur, ob ein Programm funktioniert. Erstmals wird messbar, ob der Code auch den Qualitätsansprüchen menschlicher Entwickler genügt. Die falsche Messlatte der KI-Benchmarks Bisherige Bewertungsstandards für KI-generierten Code hatten einen entscheidenden Fehler. Systeme wie HumanEval prüften lediglich die funktionale Korrektheit. Sie testeten, ob der Code eine Aufgabe fehlerfrei löst, ignorierten aber wichtige Aspekte der realen Softwareentwicklung. Lesbarkeit, Code-Stil oder eine saubere Fehlerbehandlung blieben unberücksichtigt. Diese Lücke führte zu einem Paradoxon. Entwickler nutzen KI-Tools täglich, doch das Vertrauen in die Qualität des erzeugten Codes sinkt. Menschliche Bewertungen zeigten oft keine Übereinstimmung mit den hohen Punktzahlen der etablierten Benchmarks. + Quelle: Google VeriCode bringt die menschliche Perspektive Die Forscher von Google DeepMind entwickelten deshalb eine neue Taxonomie namens VeriCode. Sie umfasst 30 überprüfbare Anweisungen für guten Programmierstil, die aus Industriestandards abgeleitet sind. Diese Regeln betreffen die Formatierung, logische Muster und die Dokumentation. Auf dieser Basis entstand das Testsystem Vibe Checker. Es erweitert bestehende Benchmarks um diese menschliche Komponente. Das System prüft, wie gut eine KI nicht nur die Aufgabe löst, sondern auch spezifische stilistische Anweisungen befolgen kann. + Quelle: Google Überraschende Schwächen der Top-Modelle Die Ergebnisse der Tests sind ernüchternd. Selbst die leistungsfähigsten KI-Modelle zeigten erhebliche Schwächen. Sobald sie mehrere Anweisungen gleichzeitig befolgen mussten, sank ihre Erfolgsquote drastisch. Dies beweist, dass die Optimierung bisher an den Bedürfnissen der Praxis vorbeiging. Die wichtigste Erkenntnis ist jedoch die positive Korrelation. Eine kombinierte Bewertung aus Funktion und Stil stimmt deutlich besser mit den Präferenzen menschlicher Programmierer überein. Diese Studie wird die Art und Weise, wie KI-Modelle trainiert werden, nachhaltig verändern. Zukünftige KI-Assistenten könnten Code erzeugen, der nicht nur funktioniert, sondern auch elegant und wartbar ist.

  • Der nächste Schritt für KI-Coder

    Ein Lama programmiert mit KI

    Der nächste Schritt für KI-Coder Vergessen Sie simple Code-Generatoren. Metas CWM analysiert Programmabläufe und versteht die Konsequenzen jeder einzelnen Zeile. Kurzfassung | Andreas Becker, 25.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Bisherige KI-Modelle schreiben Code oft, ohne dessen Ausführung wirklich zu verstehen. Sie behandeln ihn wie reinen Text. Meta stellt mit dem Code World Model (CWM) nun einen neuen Ansatz vor. Das Modell lernt nicht nur das Schreiben, sondern simuliert auch, was der Code im System bewirkt. Es entwickelt eine Art „mentales Modell“ für Programmabläufe und soll so das Debugging revolutionieren, noch bevor ein Mensch den Code überhaupt ausführt. NEWS Ein Weltmodell für den Code Meta bricht mit der Tradition, KI-Modelle nur auf statischem Quellcode zu trainieren. Der entscheidende Unterschied beim Code World Model liegt im Trainingsprozess, der die tatsächliche Ausführung von Programmen in den Mittelpunkt stellt. Dafür analysierte das Modell über 120 Millionen sogenannte „Execution Traces“ von Python-Programmen. Bei diesen Durchläufen lernte die KI, wie sich Variablenzustände nach jeder einzelnen Befehlszeile verändern und wie sich der Programmfluss entwickelt. Um eine realistische und komplexe Lernumgebung zu schaffen, setzte Meta zusätzlich auf über 35.000 Docker-Container. Diese wurden aus öffentlichen GitHub-Projekten erstellt und ermöglichten es dem Modell, Code in einer echten Laufzeitumgebung auszuführen, inklusive aller Abhängigkeiten und Tests. Dieser Ansatz erlaubt der KI, direkt mit dem Code zu interagieren, Fehler zu provozieren und aus den Ergebnissen zu lernen, anstatt nur textuelle Muster zu erkennen. + Quelle: Meta Leistung in der Praxis und Ausblick Die Resultate dieser neuen Trainingsmethode sind messbar. Für die Bewertung entwickelte Meta den neuen Benchmark „HaltEval“, der prüft, ob ein Modell vorhersagen kann, ob ein Programm erfolgreich endet oder in einer Endlosschleife stecken bleibt. Hier erreichte das Code World Model eine Genauigkeit von 94 Prozent. Auch in etablierten Software-Engineering-Tests wie SWE-Bench übertrifft CWM viele Open-Source-Modelle seiner Größenklasse und zeigt eine starke Leistung bei der Lösung mathematischer Probleme. Meta betont, dass CWM aktuell ein reines Forschungsmodell ist und nicht für den produktiven Einsatz in Chatbots oder anderen Alltagswerkzeugen gedacht ist. Das Unternehmen hat das 32-Milliarden-Parameter-Modell zusammen mit seinen Trainings-Zwischenschritten auf der Plattform Hugging Face unter einer nicht-kommerziellen Forschungslizenz veröffentlicht. Damit öffnet Meta die Tür für Forscher weltweit, um auf dieser Grundlage aufzubauen und die nächste Generation von KI-Werkzeugen zu entwickeln, die Code nicht nur schreiben, sondern fundamental verstehen. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG Meta stellt mit CWM ein KI-Modell vor, das Code nicht nur schreibt, sondern dessen Ausführung simuliert. Das 32-Milliarden-Parameter-System lernte aus über 120 Mio. Python-Traces und 35 000 Docker-Containern. CWM erreicht 94% Genauigkeit bei HaltEval und übertrifft viele gleichgroße Open-Source-Modelle in SWE-Bench. Modell und Trainingscheckpoints sind unter nicht-kommerzieller Lizenz auf Hugging Face verfügbar. QUELLEN The Decoder Marktechpost Meta AI Blog Hugging Face 36Kr Europe

  • Metas neues Weltmodell weiß, was der Code tut, den es schreibt

    Kugel aus grün leuchtendem Binärcode (0 und 1) vor blauem Gitternetzhintergrund, symbolisiert globale Vernetzung.

    Das neue Code World Model (CWM) von Meta kann nicht nur Code schreiben, sondern auch verstehen, was dabei im Computer passiert. Das 32-Milliarden-Parameter-Modell übertrifft bestehende Open-Source-Alternativen ähnlicher Größe. 

    Der Artikel Metas neues Weltmodell weiß, was der Code tut, den es schreibt erschien zuerst auf THE-DECODER.de.

  • Google-Leak: Gemini 3.0 Ultra im Code aufgetaucht

    Ein Journalist schaut einem Roboter beim schreiben zu

    Google-Leak: Gemini 3.0 Ultra im Code aufgetaucht Ein unscheinbarer Eintrag in einem GitHub-Repository verrät Googles nächsten großen KI-Schritt. Was kann das neue Super-Modell wirklich? Kurzfassung | Andreas Becker, 17.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Manchmal sind es nur wenige Zeichen in einer obskuren Datei, die einen ganzen Industriezweig in Aufruhr versetzen. Genau das ist jetzt passiert: In einem öffentlichen Code-Repository von Google ist eine verräterische Bezeichnung aufgetaucht, die auf das nächste große KI-Modell des Konzerns hindeutet. Der Name „gemini-3.0-ultra“ ist mehr als nur ein Gerücht – er ist ein klares Indiz dafür, dass Google kurz davorsteht, seinen nächsten Trumpf im KI-Wettrennen auszuspielen. NEWS Der verräterische Code-Schnipsel Aufmerksamen Entwicklern entgeht nichts. In den Tiefen des offiziellen GitHub-Repositorys für das Gemini Command Line Interface (CLI) – ein Werkzeug für Programmierer – wurde der entscheidende Hinweis entdeckt. In einer Konfigurationsdatei tauchte explizit der Eintrag „model: ‚gemini-3.0-ultra’“ auf. Solche Funde sind in der Tech-Welt oft die verlässlichsten Vorboten für kommende Produkte, da sie zeigen, dass die interne Software bereits für die Integration vorbereitet wird. Dieser Leak ist deshalb so brisant, weil er nicht aus einer anonymen Quelle stammt, sondern direkt von Google selbst, wenn auch unbeabsichtigt. Während Leaks oft mit Vorsicht zu genießen sind, liefert ein Eintrag im eigenen Code eine kaum zu widerlegende Bestätigung. Die KI-Szene interpretiert dies als klares Signal: Die Entwicklung von Gemini 3.0 ist nicht nur im Gange, sondern vermutlich schon in einem fortgeschrittenen Stadium. Das Timing deutet darauf hin, dass eine offizielle Ankündigung nur noch eine Frage von Wochen oder wenigen Monaten sein kann. + Quelle: Gemini Leak – Github Was von der „Ultra“-Version zu erwarten ist Die Bezeichnung „Ultra“ weckt bei Kennern der Materie hohe Erwartungen. Schon bei der ersten Gemini-Generation war das Ultra-Modell die mit Abstand leistungsfähigste Variante, die für hochkomplexe logische Schlussfolgerungen und anspruchsvollste Aufgaben konzipiert war. Gemini 1.5 Pro setzte später neue Maßstäbe mit einem gigantischen Kontextfenster von einer Million Tokens. Es ist daher naheliegend, dass Gemini 3.0 Ultra das Beste aus beiden Welten vereinen und noch übertreffen wird. Experten spekulieren über einen Quantensprung in multimodalen Fähigkeiten. Das Modell könnte nicht nur Text, Bilder und Audio verstehen, sondern möglicherweise auch komplexe Videos in Echtzeit analysieren und interpretieren. Zudem wird eine weitere Steigerung der logischen Denkfähigkeit und eine Reduzierung von „Halluzinationen“ erwartet – also falschen, aber plausibel klingenden Antworten. Im gnadenlosen Wettbewerb mit OpenAIs nächster GPT-Generation und den Modellen von Anthropic muss Google einen signifikanten technologischen Fortschritt liefern, um an der Spitze zu bleiben. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    In Googles offiziellem Code für das Gemini CLI wurde ein direkter Verweis auf „gemini-3.0-ultra“ entdeckt.
    Dieser Leak gilt als bisher stärkster Beweis für die bevorstehende Veröffentlichung von Googles nächstem Flaggschiff-KI-Modell.
    Es wird erwartet, dass Gemini 3.0 Ultra bisherige Modelle in Sachen logischem Denken und multimodalen Fähigkeiten übertreffen wird.
    Der Fund heizt den intensiven Wettbewerb zwischen den großen KI-Entwicklern wie Google und OpenAI weiter an.
    QUELLEN
    TestingCatalog
    India Today
    Fello AI

  • US-Studie: Chinas KI Deepseek liefert unsicheren Code bei politisch sensiblen Anfragen

    Deepseek gibt unsichereren Code aus, wenn Anfragen Bezug zu Falun Gong, Tibet oder Taiwan haben.

    Der Artikel US-Studie: Chinas KI Deepseek liefert unsicheren Code bei politisch sensiblen Anfragen erschien zuerst auf THE-DECODER.de.

  • Cursor-Editor: Eine Codezeile, die deinen Rechner kompromittiert

    Ein Ordner greift einen Rechner an

    Cursor-Editor: Eine Codezeile, die deinen Rechner kompromittiert Die Standard-Einstellung erlaubt automatische Task-Ausführung – Angreifer brauchen nur einen passenden Ordner. Kurzfassung | Andreas Becker, 11.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Einmal geklickt, schon läuft’s – aber im schlechtesten Sinne. Wer im KI-unterstützten Code-Editor Cursor ein fremdes Repository öffnet, riskiert, dass ohne jede Warnung Schadcode auf dem eigenen Rechner ausgeführt wird. Der Grund: Eine wichtige Schutzfunktion ist standardmäßig abgeschaltet. Angreifer brauchen nur eine präparierte Datei, um Zugriff zu bekommen. NEWS Autorun beim Ordneröffnen Die Schwachstelle sitzt in der Integration des Editors mit Visual Studio Code. Cursor basiert auf VS Code, deaktiviert aber eine Schutzfunktion namens „Workspace Trust“. Genau diese soll eigentlich verhindern, dass beim bloßen Öffnen eines Projekts automatisch Code ausgeführt wird. Doch bei Cursor passiert genau das – sofern im Projektordner eine passende Datei liegt. Diese Datei – „.vscode/tasks.json“ – kann so konfiguriert werden, dass bestimmte Tasks sofort starten, sobald der Ordner geöffnet wird. Dazu genügt die Einstellung „runOn: folderOpen“. Ohne aktiven Workspace Trust gibt es keine Rückfrage, keine Warnung – und der Code läuft direkt im Nutzerkontext. Keine Änderung geplant Der Editorhersteller wurde von Sicherheitsforschern auf das Problem hingewiesen, will aber am aktuellen Verhalten nichts ändern. Begründung: Die Schutzfunktion behindere bestimmte KI-Funktionen, die zentral für die Nutzererfahrung seien. Stattdessen verweist man darauf, dass Workspace Trust manuell aktiviert werden kann. Damit liegt die Verantwortung beim Nutzer. Wer regelmäßig mit fremden Repositories arbeitet, sollte genau prüfen, was er öffnet – und in welcher Umgebung. Empfehlungen für Entwickler Sicherer wird es, wenn man den Workspace Trust in den Einstellungen aktiviert oder potenziell unsicheren Code nur in isolierten Umgebungen analysiert – etwa in einer virtuellen Maschine oder einem Container. Alternativ kann auch auf den Standard-Editor Visual Studio Code ausgewichen werden, wo die Schutzfunktion aktiv ist. Zusätzlich sollten Entwickler prüfen, welche Tasks in Projekten automatisch starten dürfen – und ob wirklich jedes Repository Zugriff auf lokale Dateien oder Umgebungsvariablen haben muss. Denn klar ist: Ein fremdes Repo ist kein neutraler Ort – es kann als Einfallstor dienen. Und wer bei Cursor bleibt, sollte sein Tor lieber selbst schließen. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Beim KI-Editor Cursor ist „Workspace Trust“ standardmäßig aus; Autorun-Tasks können beim Ordneröffnen ohne Nachfrage starten.
    Angreifer missbrauchen eine präparierte .vscode/tasks.json mit runOn=folderOpen, um Code im Nutzerkontext auszuführen.
    Der Hersteller plant keinen kurzfristigen Fix; Trust lässt sich manuell aktivieren.
    Empfohlen sind Trust aktivieren, VM/Container nutzen oder VS Code als sicheren Viewer einsetzen.
    QUELLEN
    Oasis Security – Open Repo, Get Pwned (Cursor RCE)
    BleepingComputer – Cursor autorun lässt Schadcode ausführen
    Cursor – Security: Workspace Trust standardmäßig deaktiviert
    VS Code Docs – Tasks, runOptions/runOn
    VS Code Docs – Workspace Trust