Schlagwort: AI

  • Agentic AI Foundation: Warum OpenAI und Anthropic jetzt kooperieren

    Ein OpenAI Logo fusioniert mit dem Anthropic Logo

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI, Anthropic und Block gründen gemeinsam mit der Linux Foundation die Agentic AI Foundation. Ziel ist ein offener Standard, der die Kommunikation zwischen verschiedenen KI-Agenten vereinheitlicht. Anthropic steuert das Model Context Protocol (MCP) bei, um Datensilos effektiv aufzubrechen. Die Allianz soll verhindern, dass einzelne Anbieter die Infrastruktur für autonome KI-Systeme dominieren.

    Linux Foundation Press Release – Linux Foundation announces the formation of the Agentic AI Foundation

    TechCrunch – OpenAI, Anthropic and Block join new Linux Foundation effort

    The Register – Linux Foundation aims to become the Switzerland of AI agents

    Wired – OpenAI, Anthropic, and Block Are Teaming Up to Make AI Agent Standards

    OpenAI, Anthropic und Block rufen gemeinsam mit der Linux Foundation eine neue Ära für KI-Agenten aus. Die neu gegründete Agentic AI Foundation soll fragmentierte Systeme vereinen und einen weltweiten Standard für autonome Software schaffen. Das Ende der Walled Gardens Große Namen der Tech-Branche bündeln ihre Ressourcen für ein gemeinsames Ziel. OpenAI, Anthropic und das Fintech-Unternehmen Block haben zusammen mit der Linux Foundation die Agentic AI Foundation (AAIF) ins Leben gerufen. Diese Organisation widmet sich der Lösung eines der größten Probleme der aktuellen KI-Entwicklung: der fehlenden Kompatibilität. Bislang entwickeln Unternehmen ihre KI-Agenten in isolierten Ökosystemen. Ein Agent von Anbieter A kann kaum mit einem Tool von Anbieter B kommunizieren. Die AAIF soll diese Silos aufbrechen und eine Infrastruktur schaffen, in der verschiedene KI-Systeme reibungslos interagieren. Entwickler profitieren künftig von einheitlichen Protokollen, statt für jede Plattform neue Schnittstellen bauen zu müssen. Anzeige Anthropic stiftet den Standard Ein zentrales Element dieser neuen Stiftung ist das Model Context Protocol (MCP). Anthropic hatte diesen Standard ursprünglich entwickelt, um KI-Modelle sicher mit Datenquellen und Tools zu verbinden. Nun übergibt das Unternehmen die Kontrolle über das MCP an die neutrale Linux Foundation. Das MCP fungiert als universelle Sprache für KI-Agenten. Es ermöglicht Modellen, auf Dokumente oder Datenbanken zuzugreifen, ohne dass für jede Quelle eine eigene Integration nötig ist. Durch die Verlagerung in eine Open-Source-Governance wird sichergestellt, dass dieser Standard nicht von einem einzelnen Unternehmen dominiert wird. Dies schafft Vertrauen bei Entwicklern und fördert eine breite Akzeptanz im Markt. Die Schweiz der künstlichen Intelligenz Die Linux Foundation positioniert sich mit diesem Schritt als neutraler Boden für die Weiterentwicklung autonomer Systeme. Ähnlich wie bei Linux oder Kubernetes soll eine herstellerunabhängige Umgebung entstehen. Dies verhindert Vendor-Lock-in-Effekte und garantiert, dass die Basistechnologie für alle zugänglich bleibt. Neben den drei Gründungsmitgliedern schließen sich weitere Akteure der Initiative an. Das Ziel ist ein robustes Ökosystem, in dem KI-Agenten komplexe Aufgaben über verschiedene Anwendungen hinweg erledigen. Wenn ein KI-Assistent künftig eine Reise bucht, den Kalender pflegt und die Bezahlung abwickelt, basiert dies wahrscheinlich auf den Standards der AAIF.

  • OpenAI, Anthropic und mehr: „Big AI“ will gemeinsamen Standard für KI-Agenten schaffen

    Die Linux Foundation gründet die Agentic AI Foundation. Anthropic, OpenAI und Block steuern drei Open-Source-Projekte bei, während sich nahezu alle großen Technologiekonzerne als Mitglieder anschließen.

    Der Artikel OpenAI, Anthropic und mehr: „Big AI“ will gemeinsamen Standard für KI-Agenten schaffen erschien zuerst auf The Decoder.

  • Devstral 2: Mistral AI veröffentlicht neue offene KI-Modelle für Programmierung

    Mit Devstral 2 und Devstral Small 2 veröffentlicht Mistral AI eine neue Familie von Open-Source-Modellen für die Programmierung.

    Der Artikel Devstral 2: Mistral AI veröffentlicht neue offene KI-Modelle für Programmierung erschien zuerst auf The Decoder.

  • Rnj-1: Transformer-Pionier Vaswani stellt neues Coding-Modell vor

    Das neue Open-Source-Modell Rnj-1 von Essential AI lässt im Test „SWE-bench Verified“ deutlich größere Konkurrenz hinter sich.

    Der Artikel Rnj-1: Transformer-Pionier Vaswani stellt neues Coding-Modell vor erschien zuerst auf The Decoder.

  • Google veröffentlicht Gemini 3 „Deep Think“ für Gemini-Abonnenten

    Google AI hat einen aktualisierten „Deep Think“-Modus für Abonnenten von Google AI Ultra in der Gemini-App veröffentlicht.

    Der Artikel Google veröffentlicht Gemini 3 „Deep Think“ für Gemini-Abonnenten erschien zuerst auf The Decoder.

  • IBM-Chef über AGI: Warum die KI-Rechnung scheitern muss

    Ein Roboter schreibt eine KI Rechnung

    Nano Banana

    Kurzfassung

    Quellen

    IBM-CEO Arvind Krishna kritisiert den aktuellen Hype um Artificial General Intelligence (AGI) als wissenschaftlich fundierten Irrweg, da heutige Modelle auf Wahrscheinlichkeiten statt Logik basieren. Die gigantischen Kosten von bis zu fünf Billionen Dollar für Infrastruktur und der explodierende Energiebedarf machen den Ersatz menschlicher Arbeit durch generelle KI oft unwirtschaftlich. Statt auf eine menschenähnliche Superintelligenz zu warten, fokussiert sich IBM auf spezialisierte Enterprise-KI und setzt weiterhin auf menschliche Mitarbeiter zur Problemlösung.

    The Verge – Why IBM CEO Arvind Krishna is still hiring humans in the AI era

    Tech in Asia – IBM on AGI: bad math, wrong science

    MIT Technology Review – The State of AI: Welcome to the economic singularity

    TechCrunch – Data center energy demand forecasted to soar nearly 300 through 2035

    Medial – Why IBM’s CEO doesn’t think current AI tech can get to AGI

    Während die Tech-Welt Milliarden in den Traum einer menschenähnlichen Superintelligenz pumpt, tritt einer kräftig auf die Bremse. IBM-Chef Arvind Krishna erklärt, warum der aktuelle Weg zur Artificial General Intelligence (AGI) technisch und ökonomisch zum Scheitern verurteilt ist – und warum er trotzdem weiter in KI investiert. Die Sackgasse der Wahrscheinlichkeiten Im Podcast „Decoder“ mit Nilay Patel fand Krishna deutliche Worte für den aktuellen KI-Goldrausch. Sein Hauptargument: Wir versuchen gerade, mit Statistik ein Verständnis der Welt zu erzwingen. Aktuelle Large Language Models (LLMs) basieren auf Wahrscheinlichkeiten. Sie sagen das nächste Wort voraus, verstehen aber keine Kausalitäten und besitzen kein logisches Denkvermögen. Krishna bezeichnet die Vorstellung, dass man diese Modelle einfach nur immer größer machen muss, um eine AGI zu erhalten, als „falsche Wissenschaft“. Mehr Daten und mehr Rechenleistung führen zwar zu besseren Texten, aber nicht zu einem Bewusstsein oder echter Problemlösungskompetenz. Die Architektur der aktuellen Systeme stößt hier an eine harte Grenze, die sich nicht einfach mit Brute-Force-Computing durchbrechen lässt. Anzeige Eine Rechnung, die nicht aufgeht Neben der technologischen Kritik liefert der IBM-CEO eine knallharte wirtschaftliche Analyse. Die Branche steuert auf Investitionskosten von vier bis fünf Billionen Dollar zu, um die nötige Infrastruktur aufzubauen. Damit sich das rentiert, müsste KI menschliche Arbeit in einem gigantischen Ausmaß ersetzen. Doch genau hier liegt laut Krishna der „Rechenfehler“. In vielen Bereichen ist der Mensch schlichtweg effizienter und günstiger. Der Energiebedarf von Rechenzentren soll bis 2035 um fast 300 Prozent steigen. Einen Menschen durch ein energiehungriges KI-Modell zu ersetzen, das für jede Antwort ein halbes Kraftwerk benötigt, ist oft ökonomischer Unsinn. Die „Unit Economics“ – also die Kosten pro erledigter Aufgabe – sprechen in vielen Fällen gegen die KI und für den menschlichen Mitarbeiter. Werkzeuge statt Wundermaschinen IBM zieht daraus Konsequenzen für die eigene Strategie. Statt dem Phantom einer allwissenden AGI hinterherzujagen, konzentriert sich der Konzern auf pragmatische „Enterprise AI“. Es geht um spezifische Modelle für spezifische Probleme im Unternehmensumfeld, nicht um eine Maschine, die Gedichte schreibt und gleichzeitig Code kompiliert. Das bedeutet auch: Der Mensch bleibt unverzichtbar. Krishna betont, dass IBM weiterhin Menschen einstellt. KI sieht er als Produktivitäts-Booster, der Mitarbeiter unterstützt, statt sie komplett zu verdrängen. Während andere Tech-Giganten auf die Singularität wetten, setzt IBM auf hybride Clouds und spezialisierte KI-Agenten, die heute schon funktionieren – ganz ohne Science-Fiction-Versprechen.

  • Mistral 3 die letzte Hoffnung für Europa?

    Eine französische Drohne mit Mistral Chip

    Nano Banana

    Kurzfassung

    Quellen

    Mistral AI veröffentlicht die „Mistral 3“-Familie mit zehn neuen Open-Source-Modellen, die direkt mit aktuellen US-Marktführern konkurrieren. Das Flaggschiff „Mistral Large 3“ bietet multimodale Fähigkeiten (Text & Bild) und ist für komplexe Aufgaben wie Coding optimiert. Mit „Ministral“ wurden effiziente Modelle für Laptops und Edge-Geräte vorgestellt, die keine Cloud-Verbindung benötigen. Die Großbank HSBC geht eine strategische Partnerschaft mit Mistral ein, was die Enterprise-Reife der neuen Modelle unterstreicht.

    TechCrunch – Mistral closes in on Big AI rivals with new open-weight frontier and small models

    VentureBeat – Mistral launches Mistral 3, a family of open models designed to run on laptops

    CNBC – Mistral unveils new AI models in bid to compete with OpenAI, Google

    ZDNET – Mistral’s latest open-source release says smaller models beat large ones

    The Register – HSBC partners with Mistral AI to sharpen in-house LLMs

    Mistral AI meldet sich mit einem Paukenschlag zurück und veröffentlicht die Mistral-3-Familie. Mit zehn neuen Modellen, darunter leistungsfähige multimodale KIs und effiziente Edge-Lösungen, greift das französische Startup die aktuellen Marktführer aus dem Silicon Valley frontal an. Für Nutzer bedeutet das: High-End-KI wird zugänglicher und unabhängiger von US-Clouds. Europas Antwort auf die aktuelle Modell-Generation Das Pariser KI-Labor hat heute seine dritte Modellgeneration vorgestellt und damit den technologischen Rückstand zu OpenAI und Google quasi egalisiert. Das neue Flaggschiff „Mistral Large 3“ positioniert sich als direkte Alternative zu den derzeit dominierenden geschlossenen Systemen. In Benchmarks zeigt das Modell laut Hersteller eine Performance, die mit den stärksten proprietären Modellen mithalten kann – und das als „Open-Weight“-Release. Besonders spannend ist die multimodale Ausrichtung. Mistral Large 3 verarbeitet nicht nur Text, sondern versteht und analysiert auch Bilder nativ. Das macht das Modell vielseitig einsetzbar, etwa für die automatisierte Analyse von Dokumenten oder visuellen Inhalten. Da die „Gewichte“ des Modells offenliegen, können Unternehmen die KI auf eigener Hardware betreiben. Das garantiert volle Datenkontrolle, ein Aspekt, der für die deutsche Industrie im Jahr 2025 unverhandelbar geworden ist. + + Quelle: Mistral Ministral: KI-Power für die Edge Während alle Welt auf riesige Rechenzentren schaut, geht Mistral einen zweiten, strategisch wichtigen Weg: Effizienz. Unter dem Label „Ministral“ bringt das Unternehmen Modelle heraus, die spezifisch für Laptops, Drohnen und andere Edge-Geräte entwickelt wurden. Diese kompakten KIs (unter anderem mit 3 und 8 Milliarden Parametern) benötigen keine permanente Cloud-Anbindung. Der Ansatz löst eines der größten Probleme aktueller KI-Anwendungen: Latenz und Abhängigkeit. Wenn eine Drohne oder ein Roboter Entscheidungen treffen muss, zählt jede Millisekunde. Die Ministral-Modelle ermöglichen komplexe Schlussfolgerungen direkt auf dem Gerät („On-Device“). Laut Mistral übertreffen diese kleinen Modelle sogar deutlich größere, ältere Architekturen in ihrer Leistungsfähigkeit. + Quelle: Mistral HSBC-Deal signalisiert Enterprise-Reife Dass Open-Source-KI längst nicht mehr nur ein Spielzeug für Forscher ist, beweist die parallel verkündete Partnerschaft mit HSBC. Die Großbank integriert die neuen Mistral-Modelle tief in ihre interne Infrastruktur. Ein solcher Schritt eines stark regulierten Finanzinstituts ist ein massiver Vertrauensbeweis. HSBC nutzt die Technologie, um generative KI-Anwendungen sicher und compliant auszurollen. Für Mistral ist das der Beweis, dass ihre Modelle den hohen Sicherheits- und Qualitätsstandards globaler Konzerne genügen. Mit der Kombination aus dem mächtigen Large 3 und den flinken Ministral-Modellen bietet das Unternehmen nun ein komplettes Ökosystem, das sich modular an jede Anforderung anpassen lässt – vom Serverraum bis zum Endgerät. Anzeige

  • Mistral veröffentlicht neue leistungsstarke Open-Source-Modelle

    Das französische Start-up Mistral AI stellt mit „Mistral 3“ eine neue Generation offener, multimodaler und mehrsprachiger KI-Modelle vor. Neben kompakten Varianten für Edge-Anwendungen gibt es ein großes Mixture-of-Experts-Modell.

    Der Artikel Mistral veröffentlicht neue leistungsstarke Open-Source-Modelle erschien zuerst auf The Decoder.

  • Klings Video O1 kann Szenen, Subjekte und Kameraeinstellungen ändern – alles gleichzeitig

    Sechs Blickwinkel einer Frau in weißem Top und orangen Hosen, überlagert mit 'Generate different angles of @Video1'.

    Das chinesische KI-Unternehmen Kling AI hat das Modell „Video O1“ vorgestellt. Laut Kling AI handelt es sich um das „weltweit erste vereinheitlichte multimodale Videomodell“, das verschiedene Aufgaben der Videogenerierung und -bearbeitung in einem einzigen System zusammenführt.

    Der Artikel Klings Video O1 kann Szenen, Subjekte und Kameraeinstellungen ändern – alles gleichzeitig erschien zuerst auf The Decoder.

  • HSBC setzt auf Mistral AI für weltweite KI-Integration

    HSBC hat eine mehrjährige Partnerschaft mit dem französischen Start-up Mistral AI vereinbart, um generative KI weltweit in der Bank einzusetzen.

    Der Artikel HSBC setzt auf Mistral AI für weltweite KI-Integration erschien zuerst auf The Decoder.