Blog

  • Anthropic übernimmt JavaScript-Runtime Bun zur Stärkung von Claude Code

    Anthropic sichert sich mit der Übernahme von Bun die technische Basis für sein erfolgreiches Coding-Tool Claude Code. Das Open-Source-Projekt soll eigenständig bleiben, entgeht durch den Deal aber dem Zwang, ein eigenes Geschäftsmodell entwickeln zu müssen.

    Der Artikel Anthropic übernimmt JavaScript-Runtime Bun zur Stärkung von Claude Code erschien zuerst auf The Decoder.

  • Amazon re:Invent: Neuer KI-Chip, günstige Nova-2-Modelle und autonome Agenten

    Amazon versucht auf der re:Invent 2025, technologisch Boden gutzumachen. Der Fokus liegt auf massiver Skalierung durch eigene Hardware, aggressiv bepreisten Modellen der Nova-2-Serie und dem Versuch, KI-Assistenten zu vollautonomen „Mitarbeitern“ aufzuwerten.

    Der Artikel Amazon re:Invent: Neuer KI-Chip, günstige Nova-2-Modelle und autonome Agenten erschien zuerst auf The Decoder.

  • Anthropic engagiert Anwälte für möglichen Rekord-Börsengang

    Das KI-Start-up Anthropic bereitet sich offenbar auf einen der größten Börsengänge aller Zeiten vor. Ein Wettrennen mit dem Konkurrenten OpenAI um die Erstplatzierung an den öffentlichen Märkten zeichnet sich ab.

    Der Artikel Anthropic engagiert Anwälte für möglichen Rekord-Börsengang erschien zuerst auf The Decoder.

  • IBM-Chef über AGI: Warum die KI-Rechnung scheitern muss

    Ein Roboter schreibt eine KI Rechnung

    Nano Banana

    Kurzfassung

    Quellen

    IBM-CEO Arvind Krishna kritisiert den aktuellen Hype um Artificial General Intelligence (AGI) als wissenschaftlich fundierten Irrweg, da heutige Modelle auf Wahrscheinlichkeiten statt Logik basieren. Die gigantischen Kosten von bis zu fünf Billionen Dollar für Infrastruktur und der explodierende Energiebedarf machen den Ersatz menschlicher Arbeit durch generelle KI oft unwirtschaftlich. Statt auf eine menschenähnliche Superintelligenz zu warten, fokussiert sich IBM auf spezialisierte Enterprise-KI und setzt weiterhin auf menschliche Mitarbeiter zur Problemlösung.

    The Verge – Why IBM CEO Arvind Krishna is still hiring humans in the AI era

    Tech in Asia – IBM on AGI: bad math, wrong science

    MIT Technology Review – The State of AI: Welcome to the economic singularity

    TechCrunch – Data center energy demand forecasted to soar nearly 300 through 2035

    Medial – Why IBM’s CEO doesn’t think current AI tech can get to AGI

    Während die Tech-Welt Milliarden in den Traum einer menschenähnlichen Superintelligenz pumpt, tritt einer kräftig auf die Bremse. IBM-Chef Arvind Krishna erklärt, warum der aktuelle Weg zur Artificial General Intelligence (AGI) technisch und ökonomisch zum Scheitern verurteilt ist – und warum er trotzdem weiter in KI investiert. Die Sackgasse der Wahrscheinlichkeiten Im Podcast „Decoder“ mit Nilay Patel fand Krishna deutliche Worte für den aktuellen KI-Goldrausch. Sein Hauptargument: Wir versuchen gerade, mit Statistik ein Verständnis der Welt zu erzwingen. Aktuelle Large Language Models (LLMs) basieren auf Wahrscheinlichkeiten. Sie sagen das nächste Wort voraus, verstehen aber keine Kausalitäten und besitzen kein logisches Denkvermögen. Krishna bezeichnet die Vorstellung, dass man diese Modelle einfach nur immer größer machen muss, um eine AGI zu erhalten, als „falsche Wissenschaft“. Mehr Daten und mehr Rechenleistung führen zwar zu besseren Texten, aber nicht zu einem Bewusstsein oder echter Problemlösungskompetenz. Die Architektur der aktuellen Systeme stößt hier an eine harte Grenze, die sich nicht einfach mit Brute-Force-Computing durchbrechen lässt. Anzeige Eine Rechnung, die nicht aufgeht Neben der technologischen Kritik liefert der IBM-CEO eine knallharte wirtschaftliche Analyse. Die Branche steuert auf Investitionskosten von vier bis fünf Billionen Dollar zu, um die nötige Infrastruktur aufzubauen. Damit sich das rentiert, müsste KI menschliche Arbeit in einem gigantischen Ausmaß ersetzen. Doch genau hier liegt laut Krishna der „Rechenfehler“. In vielen Bereichen ist der Mensch schlichtweg effizienter und günstiger. Der Energiebedarf von Rechenzentren soll bis 2035 um fast 300 Prozent steigen. Einen Menschen durch ein energiehungriges KI-Modell zu ersetzen, das für jede Antwort ein halbes Kraftwerk benötigt, ist oft ökonomischer Unsinn. Die „Unit Economics“ – also die Kosten pro erledigter Aufgabe – sprechen in vielen Fällen gegen die KI und für den menschlichen Mitarbeiter. Werkzeuge statt Wundermaschinen IBM zieht daraus Konsequenzen für die eigene Strategie. Statt dem Phantom einer allwissenden AGI hinterherzujagen, konzentriert sich der Konzern auf pragmatische „Enterprise AI“. Es geht um spezifische Modelle für spezifische Probleme im Unternehmensumfeld, nicht um eine Maschine, die Gedichte schreibt und gleichzeitig Code kompiliert. Das bedeutet auch: Der Mensch bleibt unverzichtbar. Krishna betont, dass IBM weiterhin Menschen einstellt. KI sieht er als Produktivitäts-Booster, der Mitarbeiter unterstützt, statt sie komplett zu verdrängen. Während andere Tech-Giganten auf die Singularität wetten, setzt IBM auf hybride Clouds und spezialisierte KI-Agenten, die heute schon funktionieren – ganz ohne Science-Fiction-Versprechen.

  • Mistral 3 die letzte Hoffnung für Europa?

    Eine französische Drohne mit Mistral Chip

    Nano Banana

    Kurzfassung

    Quellen

    Mistral AI veröffentlicht die „Mistral 3“-Familie mit zehn neuen Open-Source-Modellen, die direkt mit aktuellen US-Marktführern konkurrieren. Das Flaggschiff „Mistral Large 3“ bietet multimodale Fähigkeiten (Text & Bild) und ist für komplexe Aufgaben wie Coding optimiert. Mit „Ministral“ wurden effiziente Modelle für Laptops und Edge-Geräte vorgestellt, die keine Cloud-Verbindung benötigen. Die Großbank HSBC geht eine strategische Partnerschaft mit Mistral ein, was die Enterprise-Reife der neuen Modelle unterstreicht.

    TechCrunch – Mistral closes in on Big AI rivals with new open-weight frontier and small models

    VentureBeat – Mistral launches Mistral 3, a family of open models designed to run on laptops

    CNBC – Mistral unveils new AI models in bid to compete with OpenAI, Google

    ZDNET – Mistral’s latest open-source release says smaller models beat large ones

    The Register – HSBC partners with Mistral AI to sharpen in-house LLMs

    Mistral AI meldet sich mit einem Paukenschlag zurück und veröffentlicht die Mistral-3-Familie. Mit zehn neuen Modellen, darunter leistungsfähige multimodale KIs und effiziente Edge-Lösungen, greift das französische Startup die aktuellen Marktführer aus dem Silicon Valley frontal an. Für Nutzer bedeutet das: High-End-KI wird zugänglicher und unabhängiger von US-Clouds. Europas Antwort auf die aktuelle Modell-Generation Das Pariser KI-Labor hat heute seine dritte Modellgeneration vorgestellt und damit den technologischen Rückstand zu OpenAI und Google quasi egalisiert. Das neue Flaggschiff „Mistral Large 3“ positioniert sich als direkte Alternative zu den derzeit dominierenden geschlossenen Systemen. In Benchmarks zeigt das Modell laut Hersteller eine Performance, die mit den stärksten proprietären Modellen mithalten kann – und das als „Open-Weight“-Release. Besonders spannend ist die multimodale Ausrichtung. Mistral Large 3 verarbeitet nicht nur Text, sondern versteht und analysiert auch Bilder nativ. Das macht das Modell vielseitig einsetzbar, etwa für die automatisierte Analyse von Dokumenten oder visuellen Inhalten. Da die „Gewichte“ des Modells offenliegen, können Unternehmen die KI auf eigener Hardware betreiben. Das garantiert volle Datenkontrolle, ein Aspekt, der für die deutsche Industrie im Jahr 2025 unverhandelbar geworden ist. + + Quelle: Mistral Ministral: KI-Power für die Edge Während alle Welt auf riesige Rechenzentren schaut, geht Mistral einen zweiten, strategisch wichtigen Weg: Effizienz. Unter dem Label „Ministral“ bringt das Unternehmen Modelle heraus, die spezifisch für Laptops, Drohnen und andere Edge-Geräte entwickelt wurden. Diese kompakten KIs (unter anderem mit 3 und 8 Milliarden Parametern) benötigen keine permanente Cloud-Anbindung. Der Ansatz löst eines der größten Probleme aktueller KI-Anwendungen: Latenz und Abhängigkeit. Wenn eine Drohne oder ein Roboter Entscheidungen treffen muss, zählt jede Millisekunde. Die Ministral-Modelle ermöglichen komplexe Schlussfolgerungen direkt auf dem Gerät („On-Device“). Laut Mistral übertreffen diese kleinen Modelle sogar deutlich größere, ältere Architekturen in ihrer Leistungsfähigkeit. + Quelle: Mistral HSBC-Deal signalisiert Enterprise-Reife Dass Open-Source-KI längst nicht mehr nur ein Spielzeug für Forscher ist, beweist die parallel verkündete Partnerschaft mit HSBC. Die Großbank integriert die neuen Mistral-Modelle tief in ihre interne Infrastruktur. Ein solcher Schritt eines stark regulierten Finanzinstituts ist ein massiver Vertrauensbeweis. HSBC nutzt die Technologie, um generative KI-Anwendungen sicher und compliant auszurollen. Für Mistral ist das der Beweis, dass ihre Modelle den hohen Sicherheits- und Qualitätsstandards globaler Konzerne genügen. Mit der Kombination aus dem mächtigen Large 3 und den flinken Ministral-Modellen bietet das Unternehmen nun ein komplettes Ökosystem, das sich modular an jede Anforderung anpassen lässt – vom Serverraum bis zum Endgerät. Anzeige

  • Mistral veröffentlicht neue leistungsstarke Open-Source-Modelle

    Das französische Start-up Mistral AI stellt mit „Mistral 3“ eine neue Generation offener, multimodaler und mehrsprachiger KI-Modelle vor. Neben kompakten Varianten für Edge-Anwendungen gibt es ein großes Mixture-of-Experts-Modell.

    Der Artikel Mistral veröffentlicht neue leistungsstarke Open-Source-Modelle erschien zuerst auf The Decoder.

  • Geleaktes „Soul Doc“ zeigt wie Anthropic die Persönlichkeit von Claude formt

    Einem LessWrong-Autor ist es gelungen, ein internes Trainingsdokument aus Claude 4.5 Opus zu extrahieren, das die Persönlichkeit und ethischen Richtlinien der KI definiert. Anthropic hat die Echtheit des Materials bestätigt, der Ansatz ist bisher einzigartig.

    Der Artikel Geleaktes „Soul Doc“ zeigt wie Anthropic die Persönlichkeit von Claude formt erschien zuerst auf The Decoder.

  • OpenAI will neues KI-Modell schon nächste Woche starten – angeblich stärker als Gemini 3

    OpenAI bereitet den Start eines neuen Reasoning-Modells vor. In internen Tests soll es Googles kommendes Gemini 3 schlagen. Die Veröffentlichung ist Teil einer strategischen Neuausrichtung, für die andere Projekte weichen müssen.

    Der Artikel OpenAI will neues KI-Modell schon nächste Woche starten – angeblich stärker als Gemini 3 erschien zuerst auf The Decoder.

  • Nvidia zeigt neue KI-Modelle für autonomes Fahren und Spracherkennung

    Nvidia hat auf der NeurIPS-Konferenz neue KI-Modelle für autonome Fahrzeuge und Sprachverarbeitung veröffentlicht.

    Der Artikel Nvidia zeigt neue KI-Modelle für autonomes Fahren und Spracherkennung erschien zuerst auf The Decoder.

  • Apples KI-Chef räumt den Posten nach Siri-Problemen

    Apples John Giannandrea, bisheriger Senior Vice President für Machine Learning und AI Strategy, tritt von seinem Posten zurück und wird das Unternehmen im Frühjahr 2026 verlassen.

    Der Artikel Apples KI-Chef räumt den Posten nach Siri-Problemen erschien zuerst auf The Decoder.