Schlagwort: Modelle

  • Mistral 3 die letzte Hoffnung für Europa?

    Eine französische Drohne mit Mistral Chip

    Nano Banana

    Kurzfassung

    Quellen

    Mistral AI veröffentlicht die „Mistral 3“-Familie mit zehn neuen Open-Source-Modellen, die direkt mit aktuellen US-Marktführern konkurrieren. Das Flaggschiff „Mistral Large 3“ bietet multimodale Fähigkeiten (Text & Bild) und ist für komplexe Aufgaben wie Coding optimiert. Mit „Ministral“ wurden effiziente Modelle für Laptops und Edge-Geräte vorgestellt, die keine Cloud-Verbindung benötigen. Die Großbank HSBC geht eine strategische Partnerschaft mit Mistral ein, was die Enterprise-Reife der neuen Modelle unterstreicht.

    TechCrunch – Mistral closes in on Big AI rivals with new open-weight frontier and small models

    VentureBeat – Mistral launches Mistral 3, a family of open models designed to run on laptops

    CNBC – Mistral unveils new AI models in bid to compete with OpenAI, Google

    ZDNET – Mistral’s latest open-source release says smaller models beat large ones

    The Register – HSBC partners with Mistral AI to sharpen in-house LLMs

    Mistral AI meldet sich mit einem Paukenschlag zurück und veröffentlicht die Mistral-3-Familie. Mit zehn neuen Modellen, darunter leistungsfähige multimodale KIs und effiziente Edge-Lösungen, greift das französische Startup die aktuellen Marktführer aus dem Silicon Valley frontal an. Für Nutzer bedeutet das: High-End-KI wird zugänglicher und unabhängiger von US-Clouds. Europas Antwort auf die aktuelle Modell-Generation Das Pariser KI-Labor hat heute seine dritte Modellgeneration vorgestellt und damit den technologischen Rückstand zu OpenAI und Google quasi egalisiert. Das neue Flaggschiff „Mistral Large 3“ positioniert sich als direkte Alternative zu den derzeit dominierenden geschlossenen Systemen. In Benchmarks zeigt das Modell laut Hersteller eine Performance, die mit den stärksten proprietären Modellen mithalten kann – und das als „Open-Weight“-Release. Besonders spannend ist die multimodale Ausrichtung. Mistral Large 3 verarbeitet nicht nur Text, sondern versteht und analysiert auch Bilder nativ. Das macht das Modell vielseitig einsetzbar, etwa für die automatisierte Analyse von Dokumenten oder visuellen Inhalten. Da die „Gewichte“ des Modells offenliegen, können Unternehmen die KI auf eigener Hardware betreiben. Das garantiert volle Datenkontrolle, ein Aspekt, der für die deutsche Industrie im Jahr 2025 unverhandelbar geworden ist. + + Quelle: Mistral Ministral: KI-Power für die Edge Während alle Welt auf riesige Rechenzentren schaut, geht Mistral einen zweiten, strategisch wichtigen Weg: Effizienz. Unter dem Label „Ministral“ bringt das Unternehmen Modelle heraus, die spezifisch für Laptops, Drohnen und andere Edge-Geräte entwickelt wurden. Diese kompakten KIs (unter anderem mit 3 und 8 Milliarden Parametern) benötigen keine permanente Cloud-Anbindung. Der Ansatz löst eines der größten Probleme aktueller KI-Anwendungen: Latenz und Abhängigkeit. Wenn eine Drohne oder ein Roboter Entscheidungen treffen muss, zählt jede Millisekunde. Die Ministral-Modelle ermöglichen komplexe Schlussfolgerungen direkt auf dem Gerät („On-Device“). Laut Mistral übertreffen diese kleinen Modelle sogar deutlich größere, ältere Architekturen in ihrer Leistungsfähigkeit. + Quelle: Mistral HSBC-Deal signalisiert Enterprise-Reife Dass Open-Source-KI längst nicht mehr nur ein Spielzeug für Forscher ist, beweist die parallel verkündete Partnerschaft mit HSBC. Die Großbank integriert die neuen Mistral-Modelle tief in ihre interne Infrastruktur. Ein solcher Schritt eines stark regulierten Finanzinstituts ist ein massiver Vertrauensbeweis. HSBC nutzt die Technologie, um generative KI-Anwendungen sicher und compliant auszurollen. Für Mistral ist das der Beweis, dass ihre Modelle den hohen Sicherheits- und Qualitätsstandards globaler Konzerne genügen. Mit der Kombination aus dem mächtigen Large 3 und den flinken Ministral-Modellen bietet das Unternehmen nun ein komplettes Ökosystem, das sich modular an jede Anforderung anpassen lässt – vom Serverraum bis zum Endgerät. Anzeige

  • Ilya Sutskever sieht KI-Entwicklung am Wendepunkt und schweigt über seine Lösung

    Der SSI-Gründer und ehemalige OpenAI-Chefwissenschaftler sieht die KI-Entwicklung an einem Wendepunkt. Anstelle immer größerer Modelle sei nun wieder fundamentale Forschung gefragt. Modelle müssten ähnlich wie Menschen effizienter lernen. Ideen, wie das möglich sei, habe er, doch lebe man nun in einer Welt, in der man nicht mehr frei darüber reden könne.

    Der Artikel Ilya Sutskever sieht KI-Entwicklung am Wendepunkt und schweigt über seine Lösung erschien zuerst auf The Decoder.

  • Cloudflare übernimmt Replicate mit deren 50.000 KI-Modellen

    Cloudflare übernimmt Replicate und erweitert damit seinen KI-Modellkatalog auf über 50.000 Modelle.

    Der Artikel Cloudflare übernimmt Replicate mit deren 50.000 KI-Modellen erschien zuerst auf The Decoder.

  • OpenAIs Reddit-Fragerunde zu GPT-5.1 war ein absolutes Karma-Massaker

    Eigentlich wollte OpenAI mit KI‑Fans bei Reddit über neue Modelle diskutieren. Doch das AMA kippte schnell in eine Welle aus Kritik an Modellpolitik und Sicherheitsvorgaben. Wahrscheinlich meldete sich primär eine laute Minderheit zu Wort; zugleich zeigt der Vorgang, wie stark sich einige Nutzer inzwischen emotional an KI‑Modelle binden.

    Der Artikel OpenAIs Reddit-Fragerunde zu GPT-5.1 war ein absolutes Karma-Massaker erschien zuerst auf The Decoder.

  • KI-Zensur nach Wunsch?

    Bausteine für OSS

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI hat gpt-oss-safeguard veröffentlicht, zwei Open-Source-KI-Modelle (120b und 20b). Der Clou: Sie interpretieren Sicherheitsrichtlinien in Echtzeit, statt sie fest einzuprogrammieren. Entwickler können Richtlinien sofort ändern, ohne die Modelle komplett neu trainieren zu müssen. Ziel ist eine flexiblere und transparentere Sicherheitsinfrastruktur für die KI-Community.

    OpenAI Official Blog Hugging Face Collections LinkedIn – Georg Zoeller THE DECODER MarkTechPost

    OpenAI hat zwei neue Open-Source-Modelle namens gpt-oss-safeguard vorgestellt. Sie sollen die Sicherheitsklassifizierung von KI-Inhalten grundlegend verändern. Statt starrer, eintrainierter Regeln erlauben die Werkzeuge eine flexible Anpassung von Sicherheitsrichtlinien direkt im laufenden Betrieb. Anpassung in Echtzeit statt Training Bisherige Sicherheitssysteme für KI-Modelle funktionierten meist statisch. Ein Klassifikator wurde auf bestimmte unerwünschte Inhalte trainiert und musste für jede Änderung der Richtlinien aufwendig neu justiert werden. Dieser Prozess ist langsam und passt sich nur schwer an neue Bedrohungen oder unterschiedliche Kontexte an. OpenAI will diesen starren Ansatz nun aufbrechen. Die neuen Modelle gpt-oss-safeguard, die in einer 120-Milliarden- und einer 20-Milliarden-Parameter-Version erscheinen, interpretieren Sicherheitsrichtlinien zur Laufzeit. Das bedeutet, ein Entwickler kann die Regeln für die Moderation von Inhalten ändern, ohne das Modell selbst neu trainieren zu müssen. Die neuen Richtlinien werden sofort aktiv. + Quelle: OpenAI Transparenz als neues Ziel Die Modelle basieren auf der gpt-oss-Architektur und werden unter der freizügigen Apache 2.0-Lizenz veröffentlicht. Dieser Schritt hin zu Open Source ist bemerkenswert. Er signalisiert den Wunsch nach mehr Transparenz in einem Bereich, der oft als „Black Box“ kritisiert wird. Entwickler können nun genau nachvollziehen, wie die Sicherheitsfilterung funktioniert. Entwickelt wurden die Werkzeuge in Zusammenarbeit mit ROOST, einer Organisation, die sich für eine offene und sichere KI-Infrastruktur einsetzt. Die Veröffentlichung ist als „Research Preview“ deklariert. Sie lädt die Community ein, die Modelle zu testen und eine gemeinsame, flexible Sicherheitsinfrastruktur aufzubauen. + Quelle: OpenAI Mehr Kontrolle für Entwickler Für Entwickler bedeutet dieser Ansatz vor allem eines: mehr Kontrolle. Sie sind nicht länger an die vordefinierten Sicherheitsstandards eines großen Anbieters gebunden. Stattdessen können sie eigene, nuancierte Richtlinien definieren, die exakt auf ihre Anwendung zugeschnitten sind. Ein Forum für Fachdiskussionen benötigt andere Filter als ein soziales Netzwerk für Jugendliche. Mit gpt-oss-safeguard lässt sich diese Unterscheidung nun technisch abbilden. Die KI lernt, die geschriebenen Regeln zu verstehen und anzuwenden, anstatt nur Muster zu erkennen. Diese Entwicklung gibt der KI-Community ein mächtiges Werkzeug an die Hand, um die Debatte um KI-Sicherheit offener und anpassungsfähiger zu gestalten.

  • GPT-5 im Propaganda-Check: Wie uns die KI beeinflusst

    Ein ChatGPT-Richter wird von Engel und Teufel beeinflusst

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI behauptet in einer neuen Studie, die politische Voreingenommenheit in den GPT-5-Modellen um 30 Prozent reduziert zu haben.
    Ein internes Testverfahren mit 500 Fragen zu 100 Themen zeigte, dass die neuen Modelle widerstandsfähiger gegenüber ideologisch aufgeladenen Anfragen sind.
    Die Veröffentlichung erfolgt unter politischem Druck der US-Regierung, während Experten die mangelnde Transparenz der Studie kritisieren.
    Während die EU mit dem AI Act auf Regulierung setzt, bleibt die vollständige Neutralität von KI eine ungelöste Herausforderung.

    The Verge
    OpenAI Official Blog
    CryptoRank
    TechEDT
    The Register

    OpenAI hat eine neue Studie veröffentlicht, die eine signifikante Reduzierung politischer Voreingenommenheit in seinen neuesten KI-Modellen belegen soll. Laut dem Unternehmen zeigen die GPT-5-Modelle eine um 30 Prozent geringere politische Schlagseite. Diese Ankündigung fällt in eine Zeit hitziger Debatten um KI-Neutralität. Neutralität auf dem Prüfstand Das KI-Unternehmen hat ein internes Testverfahren entwickelt, um politische Tendenzen zu messen. Das zuständige „Model Behaviour“-Team prüfte die Reaktionen der KI auf rund 500 verschiedene Anfragen. Diese deckten 100 politische und kulturelle Themen ab und wurden aus verschiedenen ideologischen Perspektiven formuliert, von neutral bis emotional aufgeladen. Die Forscher identifizierten dabei fünf Arten von Verzerrungen, darunter das Äußern persönlicher Meinungen oder die einseitige Darstellung von Sachverhalten. Die neuen Modelle, GPT-5 Instant und GPT-5 Thinking, schnitten im Vergleich zu den Vorgängern GPT-4o und o3 deutlich besser ab. Sie zeigten sich widerstandsfähiger gegenüber provokanten Anfragen. Laut OpenAI weisen Analysen von realen Nutzerdaten darauf hin, dass weniger als 0,01 Prozent aller ChatGPT-Antworten Anzeichen politischer Voreingenommenheit enthalten. Eine interessante Beobachtung war, dass stark liberal formulierte Anfragen tendenziell mehr Voreingenommenheit hervorriefen als konservative. Politischer Gegenwind und Expertenzweifel Die Veröffentlichung der Studie erfolgt vor dem Hintergrund eines wachsenden politischen Drucks in den USA. Die Trump-Administration fordert von KI-Unternehmen ideologisch neutrale Modelle. Eine entsprechende Executive Order aus dem Juli 2025 verbietet US-Behörden die Beschaffung von KI-Systemen, die als „woke“ eingestuft werden könnten. OpenAI steht damit vor der Herausforderung, die Neutralität seiner Modelle zu beweisen. Gleichzeitig äußern unabhängige Experten Kritik. Sie bemängeln die fehlende Transparenz der internen Studie, da OpenAI weder die genutzten Testfragen noch die vollständige Methodik offengelegt hat. Kritiker argumentieren, dass interne Bewertungen oft nicht das messen, was sie zu messen vorgeben. Die Frage bleibt, ob eine KI, die auf von Menschen erstellten Daten trainiert wurde, jemals vollständig neutral sein kann. Regulierung und die offene Zukunftsfrage Während in den USA der politische Druck wächst, schafft die Europäische Union mit dem AI Act einen rechtlichen Rahmen. Artikel 10 des Gesetzes verpflichtet Anbieter von Hochrisiko-KI-Systemen, Voreingenommenheit in ihren Datensätzen zu erkennen und zu minimieren. OpenAI selbst räumt ein, dass die Beseitigung ideologischer Tendenzen in Sprachmodellen eine ungelöste Forschungsaufgabe bleibt. Das Unternehmen hat weitere Ergebnisse für die kommenden Monate angekündigt. Die Debatte um die Definition von Fairness und Neutralität in der KI hat damit erst begonnen.

  • Samsungs 500-Dollar-KI deklassiert die Tech-Giganten

    Ein OpenAI Roboter wird von kleinen Samsung Robotern überwältigt

    Samsungs 500-Dollar-KI deklassiert die Tech-Giganten Ein winziges Modell mit nur 7 Millionen Parametern zeigt, wie fundamental falsch die Konkurrenz liegt.

    Andreas Becker
    ·
    10.10.25

    Nano Banana

    Ein KI-Modell mit nur 7 Millionen Parametern stellt die Branchenriesen in den Schatten. Forscher von Samsung haben ein System entwickelt, das etablierte Modelle von Google und OpenAI bei komplexen Denkaufgaben übertrifft. Dieser Durchbruch beweist, dass eine intelligente Architektur rohe Rechenleistung schlagen kann und stellt den bisherigen Wettlauf um immer größere Modelle fundamental infrage. Das Geheimnis des rekursiven Denkens Der Schlüssel zum Erfolg des „Tiny Recursive Model“ (TRM) liegt in seiner Architektur. Statt wie herkömmliche Sprachmodelle Wort für Wort zu generieren, arbeitet das System in Schleifen. Es merkt sich die aktuell beste Lösung und führt parallel eine Art Notizzettel für Zwischenschritte. In jedem Durchgang verbessert es zuerst seine Notizen und optimiert anschließend die Gesamtlösung. Dieser Prozess wiederholt sich bis zu 16 Mal in einem sogenannten Entwurf-Überarbeitungs-Zyklus. Das winzige Netzwerk korrigiert dadurch schrittweise seine eigenen Fehler. So erreicht es eine hohe Präzision bei komplexen Aufgaben, für die sonst massiv größere Modelle nötig wären. + Quelle: Samsung SAIL Montr´eal Ein Gamechanger für die KI-Entwicklung Die Effizienz des Modells zeigt sich eindrucksvoll in der Praxis. Bei extrem schweren Sudoku-Rätseln steigerte das System die Lösungsgenauigkeit auf über 87 Prozent. Auch bei der Navigation durch komplexe Labyrinthe erzielte es hervorragende Ergebnisse. Dieser Ansatz revolutioniert die Kostenseite der KI-Entwicklung. Das gesamte Training des Modells dauerte nur zwei Tage auf vier handelsüblichen GPUs. Die Kosten dafür lagen bei unter 500 US-Dollar. Im Vergleich dazu benötigen die Billionen-Parameter-Modelle der Konkurrenz spezialisierte Chip-Cluster und verschlingen Millionen-Budgets. Der Ansatz von Samsung macht fortschrittliche KI damit für Start-ups, Universitäten und die lokale Anwendung auf Geräten zugänglich. Grenzen und zukünftige Rolle Die Stärken des TRM liegen klar in strukturierten Aufgaben mit definierten Regeln. Für offene, kreative oder textbasierte Anwendungen ist das System als nicht-generatives Modell ungeeignet. Die Forscher sehen es daher nicht als Ersatz für große Sprachmodelle, sondern als spezialisierten Baustein. Zukünftige KI-Systeme könnten logische Probleme an solche effizienten Module auslagern. Währenddessen übernehmen die großen Modelle weiterhin die Sprachverarbeitung und Textgenerierung. Sollten sich die Ergebnisse in weiteren Tests bestätigen, markiert das TRM einen Wendepunkt. Der Fokus der KI-Forschung könnte sich von reiner Skalierung hin zu intelligenteren Architekturen verschieben. KI-Wissen ohne Paywall – dein Kaffee für All-AI.de KI-Tools sind teuer – unsere Artikel bleiben kostenlos! Unterstütze uns einmalig via PayPal oder werde YouTube -Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir!

    Kurzfassung

    Quellen

    Samsung Forscher haben das „Tiny Recursive Model“ (TRM) mit nur 7 Millionen Parametern entwickelt.
    Es übertrifft deutlich größere Modelle von OpenAI und Google bei komplexen, logischen Denkaufgaben.
    Der Erfolg basiert auf einer rekursiven Architektur, die Lösungen schrittweise in Schleifen verbessert.
    Mit Trainingskosten von unter 500 Dollar könnte der Ansatz die KI-Entwicklung demokratisieren und revolutionieren.

    Forbes
    ArXiv Paper
    MarkTechPost

  • KI-Agenten für alle, dank TOUCAN

    Ein Toucan sitzt auf einem Haufen Daten

    KI-Agenten für alle, dank TOUCAN Wie 1,5 Millionen echte Datenpunkte jetzt Open-Source-Modelle an die Spitze der Entwicklung katapultieren. Kurzfassung | Andreas Becker, 08.10.25
    gpt-image-1 | All-AI.de Die Dominanz geschlossener KI-Systeme bekommt einen empfindlichen Dämpfer. Ein Forschungsteam hat mit TOUCAN den bisher größten offenen Datensatz für KI-Agenten veröffentlicht. Er schließt eine entscheidende Lücke und ermöglicht es, Open-Source-Modellen den robusten Umgang mit realen, externen Werkzeugen beizubringen. Diese Fähigkeit war bisher eine klare Stärke der großen Tech-Konzerne. Ein Datensatz bricht Rekorde Ein Team des MIT-IBM Watson AI Lab und der University of Washington stellt die Weichen für die Open-Source-KI neu. Ihr Datensatz TOUCAN ist der bisher umfangreichste seiner Art. Er enthält 1,5 Millionen aufgezeichnete Interaktionen von KI-Modellen mit externen Werkzeugen. Die Daten stammen aus 495 realen Server-Umgebungen und umfassen über 2.000 verschiedene Tools. Dazu gehören Web-Suchen, Entwickler-Schnittstellen sowie Finanz- und Wetterdienste. Jeder Datensatz dokumentiert den gesamten Prozess. Er beginnt bei der ursprünglichen Aufgabe, verfolgt jeden einzelnen API-Aufruf und dessen Antwort bis hin zum finalen Ergebnis. Damit erhalten offene Modelle eine detaillierte Anleitung, wie komplexe Probleme durch den Einsatz von Werkzeugen gelöst werden. Der Datensatz steht unter einer offenen Lizenz zur Verfügung. Reale Daten statt Simulation Der entscheidende Unterschied zu bisherigen Datensätzen liegt in der Authentizität. TOUCAN basiert vollständig auf echten API-Ausführungen. Frühere Ansätze nutzten oft simulierte Antworten, die ein fehlerfreies Umfeld vorgaukelten. Die neue Methode bildet dagegen die Realität ab. Sie erfasst typische Probleme wie fehlerhafte Antworten, technische Verzögerungen oder unerwartete Abhängigkeiten zwischen verschiedenen Diensten. Modelle lernen so, mit den Unwägbarkeiten produktiver Systeme umzugehen. Für die Erstellung nutzten die Forscher verschiedene Sprachmodelle, die zunächst realistische Aufgaben formulierten. Anschließend führten andere Modelle diese Aufgaben tatsächlich aus. Um die Vielfalt und Robustheit zu steigern, fügten die Entwickler gezielt unlösbare Aufgaben und komplexe Dialogketten hinzu. Offene Modelle auf der Überholspur Die Ergebnisse der ersten Tests sind beeindruckend. Das Forschungsteam trainierte drei offene Qwen-2.5-Modelle unterschiedlicher Größe mit dem TOUCAN-Datensatz. In einem spezialisierten Benchmark verbesserte das größte dieser Modelle seine Leistung um 8,7 Prozentpunkte. Es übertraf damit in mehreren Bereichen sogar das proprietäre GPT-4.5-Preview von OpenAI. Auch im direkten Vergleich mit anderen großen Open-Source-Modellen zeigten sich deutliche Vorteile. Die mit TOUCAN trainierten Modelle schnitten in Tests mit echten Werkzeug-Schnittstellen teilweise besser ab als deutlich größere Systeme wie Llama-3.3. Das Projekt beweist, wie hochwertige Trainingsdaten die Effizienz kleinerer Modelle massiv steigern und die Lücke zur geschlossenen Konkurrenz schließen können. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    Forscher haben mit TOUCAN den größten offenen Datensatz zum Training von KI-Agenten veröffentlicht.
    Er basiert auf 1,5 Millionen echten Interaktionen mit über 2.000 Werkzeugen und bildet realistische Fehler und Verzögerungen ab.
    Mit TOUCAN trainierte Open-Source-Modelle zeigten eine massive Leistungssteigerung und übertrafen teilweise sogar geschlossene Systeme wie GPT-4.5.
    QUELLEN
    THE DECODER
    GitHub
    Hugging Face
    Quantum Zeitgeist

  • Alibabas Qwen stellt neue Modelle für Sprache, Bildbearbeitung und Sicherheit vor

    Alibabas KI-Einheit Qwen hat eine Reihe neuer Modelle und Modell-Updates veröffentlicht.

    Der Artikel Alibabas Qwen stellt neue Modelle für Sprache, Bildbearbeitung und Sicherheit vor erschien zuerst auf THE-DECODER.de.

  • Anthropic blockiert US-Behörden: Keine Claude-Modelle für Inlandsüberwachung

    Das KI-Start-up Anthropic will nicht, dass seine Modelle zur Überwachung von US-Bürger:innen eingesetzt werden. In Washington sorgt das für wachsenden Unmut.

    Der Artikel Anthropic blockiert US-Behörden: Keine Claude-Modelle für Inlandsüberwachung erschien zuerst auf THE-DECODER.de.