Schlagwort: Modell

  • GPT‑5-Codex: OpenAI startet spezialisierte GPT‑5-Variante für Softwareentwicklung

    OpenAI veröffentlicht mit GPT‑5-Codex ein neues Modell für den Codex-Agenten. Es soll komplexe Programmieraufgaben selbstständig lösen und Software zuverlässig prüfen – in lokalen Entwicklungsumgebungen, der Cloud oder direkt auf GitHub.

    Der Artikel GPT‑5-Codex: OpenAI startet spezialisierte GPT‑5-Variante für Softwareentwicklung erschien zuerst auf THE-DECODER.de.

  • Alibaba stellt Qwen3-Next vor: Neues Sprachmodell setzt auf schnellere MoE-Architektur

    Alibaba hat mit Qwen3-Next ein neues Sprachmodell veröffentlicht, das auf eine angepasste Architektur setzt. Das Modell soll damit deutlich schneller rechnen als frühere Varianten – bei vergleichbarer Leistung.

    Der Artikel Alibaba stellt Qwen3-Next vor: Neues Sprachmodell setzt auf schnellere MoE-Architektur erschien zuerst auf THE-DECODER.de.

  • Musik in Sekunden: Diese Audio-KI ersetzt das Tonstudio

    Ein futuristisches AI-Musik-Studio

    Musik in Sekunden: Diese Audio-KI ersetzt das Tonstudio Stable Audio 2.5 generiert Tracks in Studioqualität – und braucht dafür nur zwei Sekunden. Kurzfassung | Andreas Becker, 11.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Stability AI geht mit seiner Audio-KI in die nächste Runde – und spricht jetzt gezielt Unternehmen an. Stable Audio 2.5 erzeugt komplette Musikstücke in Studioqualität und braucht dafür weniger Zeit, als ein Track zum Laden braucht. Möglich macht das eine neue Trainingsmethode namens ARC. Gleichzeitig bringt das Update Funktionen, die das Modell für professionelle Audio-Workflows interessant machen sollen – etwa das nahtlose Ergänzen bestehender Aufnahmen. NEWS Was das Modell kann Stable Audio 2.5 generiert bis zu drei Minuten lange Tracks in unter zwei Sekunden – zumindest auf den dafür optimierten Nvidia H100-GPUs. Dabei sind die Strukturen komplexer als bisher: Intros, Spannungsbögen, Breaks und Outros lassen sich gezielt erzeugen. Auch auf Stimmungen und Genres reagiert das Modell jetzt feinfühliger. Prompts wie „epischer Soundtrack“ oder „uplifting Electro mit breiten Synths“ liefern laut Stability AI hörbar bessere Ergebnisse. Ein Highlight ist die neue Inpainting-Funktion. Nutzer laden einen Audioschnipsel hoch, markieren den Einstiegspunkt – und die KI ergänzt den Rest des Tracks passend dazu. Das ist praktisch, wenn etwa ein Loop verlängert oder ein halbfertiger Jingle fertiggestellt werden soll. Auch Text-zu-Audio bleibt möglich. Die generierten Dateien lassen sich direkt in kreative Workflows integrieren.

    Tempo durch neue Methode Das Geschwindigkeits-Upgrade kommt durch ARC, kurz für „Adversarial Relativistic-Contrastive“. Statt den generativen Prozess durch ein zweites Modell zu verlangsamen, trainiert ARC direkt auf Relevanz und Kontrast. Das spart Rechenzeit und verbessert die Ausgabegenauigkeit – bei deutlich weniger Inferenzschritten. Schon in der mobilen Version „Stable Audio Open Small“ war diese Methode im Einsatz. Die Kombination aus Geschwindigkeit, Qualität und Flexibilität macht das Modell interessant für professionelle Audioproduktion – etwa in Agenturen oder internen Content-Teams. Stability AI stellt Stable Audio 2.5 über eine API, Partner-Plattformen und als Enterprise-Modell bereit. Laut Anbieter wurde der Trainingsdatensatz vollständig lizenziert, zudem prüft ein internes System automatisch die Einhaltung von Urheberrechten. Sound als Markenidentität Das Ziel: Unternehmen sollen mit wenigen Klicks eine eigene Klangsprache entwickeln – für Werbespots, Spiele, UX-Sounds oder sogar Kreditkartentöne. Dafür kooperiert Stability AI mit der Soundbranding-Agentur Amp, die zur WPP-Gruppe gehört. Die neueste Version von Stable Audio soll über WPP Open bereitgestellt werden – und so direkt in die Audiostrategie globaler Marken einfließen. Damit wird klar: Nach dem Boom der Bild-KIs verschiebt sich der Fokus zunehmend Richtung Audio. Und Stability AI setzt alles daran, nicht nur mitzuspielen, sondern die Regeln zu schreiben. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Stability AI veröffentlicht Stable Audio 2.5 für Enterprise-Sound-Produktion mit dreiminütigen Tracks in unter zwei Sekunden.
    Neu sind Audio-Inpainting, bessere Songstrukturen und präzisere Reaktionen auf Stimmungs- und Genre-Prompts.
    Die ARC-Methode beschleunigt die Generierung deutlich; Verfügbarkeit über API und Partnerplattformen.
    Mit WPP/amp peilt Stability AI skalierbares Sound-Branding über WPP Open an.
    QUELLEN
    Stability AI – Produktankündigung zu Stable Audio 2.5
    VentureBeat – Hintergründe zu ARC und Enterprise-Fokus
    Stability AI Research – ARC-Erklärung
    fal.ai – Verfügbarkeit und Features

  • Qwen3-Max: Alibaba zeigt 1-Billionen-KI

    1T Qwen3-max mit Info-Grafik

    Qwen3-Max: Alibaba zeigt 1-Billionen-KI Größer als alles zuvor: Qwen3-Max-Preview startet mit über 1 Billion Parametern, 262k Kontext, gestaffelten API-Preisen und ersten Benchmarks gegen die Konkurrenz. Kurzfassung | Andreas Becker, 06.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Alibaba hat sein bislang größtes Sprachmodell vorgestellt: Qwen3-Max-Preview. Mit mehr als einer Billion Parametern, einem großem Kontextfenster und starker Benchmark-Leistung will das Modell direkt mit den US-Giganten konkurrieren. Es ist ab sofort per API verfügbar – allerdings nur als Vorschauversion. NEWS Größer, länger, schneller Während viele KI-Labs zuletzt kleinere, effizientere Modelle entwickelt haben, geht Alibaba bewusst den entgegengesetzten Weg. Qwen3-Max setzt mit über einer Billion Parametern ein klares Zeichen: Größe zählt wieder. Mehr Parameter bedeuten zwar nicht automatisch bessere Ergebnisse, eröffnen aber neue Spielräume – etwa bei komplexem Denken, langen Dialogen oder datenintensiven Aufgaben. Qwen verfolgt damit ein Ziel: den Anschluss an die westliche Konkurrenz nicht nur halten, sondern offensiv überholen. Die Infrastruktur dafür steht – mit Verfügbarkeit über Qwen Chat, die Alibaba-Cloud und OpenRouter. + Quelle: Alibaba – Benchmark von Qwen-3-max Leistung mit Ausdauer In ersten Benchmarks schlägt Qwen3-Max nicht nur das Vorgängermodell, sondern liefert auch beachtliche Werte gegen etablierte Systeme wie Claude Opus 4 und Deepseek. Besonders auffällig: starke Ergebnisse bei Mathematik, Programmierlogik und kniffligen Reasoning-Aufgaben. Frühtester berichten sogar von strukturierten Schritt-für-Schritt-Antworten bei Aufgaben, an denen GPT-5 Thinking scheiterte. Technisch beeindruckt vor allem das Kontextfenster: Bis zu 262.144 Tokens lassen sich verarbeiten – das entspricht einem ganzen Buch. Dank Context Caching kann das Modell auch über längere Chats hinweg schnell reagieren. Für Agent-Workflows oder umfangreiche Dokumentanalysen ist das ein echter Vorteil. Zugang und Preisgestaltung Das Modell ist bereits in mehreren Umgebungen verfügbar: Qwen Chat, Alibaba Cloud API und OpenRouter. Für Entwickler und Unternehmen bedeutet das eine einfache Integration – inklusive Unterstützung für OpenAI-kompatible Schnittstellen. Der Zugriff ist allerdings nicht kostenlos, sondern erfolgt über ein gestaffeltes Preismodell. Je nach Eingabelänge steigen die Preise deutlich: Wer unter 32.000 Tokens bleibt, zahlt 0,861 US-Dollar pro Million Input-Tokens. Bei größeren Prompts steigen die Kosten auf bis zu 2,151 US-Dollar pro Million – plus Ausgabegebühren. Das macht kurze Anfragen günstig, stellt aber klare Grenzen für Dauerbelastung. Viel Potenzial – mit Vorsicht Für technische Teams kann das Modell vieles erleichtern: lange Inputs, strukturierte Ausgaben, weniger Notwendigkeit für Nachbearbeitung. Ob beim Auswerten von Logfiles, beim Erstellen von JSON oder im Coding-Alltag – Qwen3-Max verspricht Effizienz. Wer mit großen Datenmengen arbeitet, bekommt hier ein potentes Werkzeug. Doch der Haken liegt im Detail: Es handelt sich um eine Preview-Version. Wie stabil, skalierbar und verlässlich das Modell unter Dauerlast ist, muss sich erst noch zeigen. Und wie bei allen Cloud-Modellen gilt: Sensible Daten sollten nur mit Bedacht verarbeitet werden. Wer jetzt einsteigt, testet auf eigenes Risiko – aber mit spannenden Möglichkeiten. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Alibaba bringt Qwen3-Max-Preview mit „über 1 Billion Parametern“ an den Start.
    Das Modell bietet 262.144 Tokens Kontext, Context Caching und starke interne Benchmarks.
    Verfügbar sind Qwen Chat, Alibaba-Cloud-API und OpenRouter; die Preise sind gestaffelt.
    Für Teams winken Vorteile bei langen Dokumenten und Agent-Workflows, trotz Preview-Risiken.
    QUELLEN
    VentureBeat: Qwen3-Max Preview mit 1 Billion Parametern
    Alibaba Cloud Doku: Model Studio – Modelle & Preise (Qwen3-Max-Preview)
    Qwen (offiziell) auf X: Launch-Ankündigung
    OpenRouter: Qwen3-Max – API & Anbieter
    MarkTechPost: Einordnung des Qwen3-Max-Launches

  • Schweiz startet eigenes KI-Modell – komplett offen

    Ein Lama in der Schweiz

    Schweiz startet eigenes KI-Modell – komplett offen Mit Apertus präsentiert die Schweiz ein LLM mit 15 Billionen Token. Wird das Projekt zur datenschutzfreundlichen ChatGPT-Alternative? Kurzfassung | Andreas Becker, 04.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Die Schweiz hat ein eigenes Sprachmodell vorgestellt, das sich deutlich von bekannten Lösungen wie ChatGPT unterscheidet. Apertus wurde von führenden Forschungseinrichtungen des Landes entwickelt und ist vollständig offen zugänglich – vom Quellcode über die Trainingsdaten bis hin zum gesamten Entwicklungsprozess. Damit verfolgt das Projekt ein Ziel, das in der KI-Welt Seltenheitswert hat: maximale Transparenz und Vertrauen. NEWS Ein Modell, das alles offenlegt Apertus ist das Ergebnis einer Zusammenarbeit zwischen der ETH Zürich, der EPFL und dem Supercomputing-Zentrum CSCS. Das Modell wurde unter strengen Datenschutz- und Urheberrechtsvorgaben trainiert und richtet sich vor allem an Nutzer, die Nachvollziehbarkeit und Datensouveränität in den Vordergrund stellen. Anders als viele andere Anbieter machen die Entwickler nicht nur die Modellgewichte öffentlich, sondern auch den gesamten Trainingsprozess. Der Zugriff auf die Trainingsdaten, der Quellcode und die eingesetzten Methoden sind dokumentiert und frei verfügbar. Dieser offene Ansatz ermöglicht eine bessere Überprüfung der Ergebnisse und schafft Vertrauen – besonders wichtig für Einsatzbereiche mit hohen Anforderungen an Datenschutz und Regulierung. Mit diesem Konzept positioniert sich Apertus als digitales Gegenstück zu öffentlicher Infrastruktur. Technische Basis und Nutzung Das Modell erscheint in zwei Varianten mit 8 und 70 Milliarden Parametern. Trainiert wurde es auf dem Hochleistungsrechner „Alps“ in Lugano, mit einem Datensatz von rund 15 Billionen Token in über 1.000 Sprachen. Ein besonderer Fokus lag auf der sprachlichen Vielfalt: Rund 40 Prozent der Daten stammen nicht aus dem Englischen, sondern beinhalten unter anderem auch Schweizerdeutsch und Rätoromanisch. Apertus richtet sich vor allem an Entwickler und Organisationen, die eigene KI-Anwendungen aufbauen wollen. Es ist über Hugging Face, die Swisscom-Plattform und weitere Kanäle öffentlich zugänglich. Ein fertiges Chat-Frontend gibt es bisher nicht – die Integration erfolgt individuell. Erste Tests sind im Rahmen der Swiss {ai} Weeks geplant. Chancen und Grenzen Technisch wird Apertus häufig mit Metas Llama-Modellen verglichen. Im Fokus stehen jedoch nicht maximale Leistung oder Effizienz, sondern Kontrolle, Sicherheit und Offenheit. Gerade für Unternehmen mit hohen Anforderungen an Compliance und Datenhoheit könnte das den Ausschlag geben – auch wenn proprietäre Modelle bei Benchmarks aktuell noch vorne liegen. Die Schweizer Wirtschaft zeigt grundsätzlich Interesse, agiert aber vorsichtig. Banken und Industrieunternehmen sehen in Apertus Potenzial, vor allem wegen der rechtlichen Sicherheit und der lokalen Kontrolle. Ob sich das Modell langfristig etabliert, hängt davon ab, wie gut es sich in bestehende Systeme integrieren lässt – und ob es eine aktive Community gibt, die das Ökosystem weiterentwickelt. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Die Schweiz stellt mit Apertus ein vollständig offenes, mehrsprachiges Sprachmodell vor, entwickelt von ETH, EPFL und CSCS.
    Das Training basiert auf öffentlichen Daten und wird lückenlos dokumentiert, um Transparenz und rechtliche Sicherheit zu garantieren.
    Mit zwei Modellgrößen und über 1.000 Sprachen zielt Apertus auf Forschung, Verwaltung und Unternehmen mit Compliance-Fokus.
    Bereitgestellt wird es über Swisscom, Hugging Face und das Public-AI-Netzwerk – ohne Chat-Frontend, dafür mit maximaler Offenheit.
    QUELLEN
    ETH Zürich
    ETH Zürich – Pressemitteilung (PDF)
    SWI swissinfo.ch
    CSCS
    Swisscom
    Hugging Face
    TechXplore

  • Grok Code Fast 1: Diese neue KI macht Programmierer nervös

    Elon Musk in einem KI-Datenstrom

    Grok Code Fast 1: Diese neue KI macht Programmierer nervös Sie ist schneller, günstiger und übernimmt sogar ganze Codeaufgaben allein. Ist das der Anfang vom Ende klassischer Entwicklerarbeit? Kurzfassung | Andreas Becker, 30.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Das KI-Unternehmen xAI bringt mit Grok Code Fast 1 ein neues Modell für automatisiertes Programmieren auf den Markt. Es soll nicht nur günstiger, sondern auch schneller sein als vergleichbare Angebote. Der Fokus liegt auf Aufgaben, die Entwickler normalerweise selbst erledigen – etwa kleine Bugfixes, Änderungen am Code oder ganze Pull Requests. Zum Start ist die neue KI für kurze Zeit kostenlos über mehrere Plattformen verfügbar. NEWS Schnell, günstig und spezialisiert Grok Code Fast 1 soll besonders effizient arbeiten. Laut xAI verarbeitet das Modell rund 190 Tokens pro Sekunde – das ist mehr als viele andere Tools in diesem Bereich. Noch wichtiger für viele Entwickler dürfte aber der Preis sein: Die Kosten pro Million Tokens liegen mit 0,20 US-Dollar für Eingaben und 1,50 US-Dollar für Ausgaben deutlich unter dem, was andere Anbieter verlangen. Im Alltag könnte das einen großen Unterschied machen, besonders wenn automatisierte Systeme viele einzelne Schritte durchführen müssen. Das Modell wurde speziell für Programmieraufgaben entwickelt. Dabei geht es nicht nur um Code-Vorschläge, sondern um das eigenständige Lösen kleiner Aufgaben. Grok Code Fast 1 kann dafür Werkzeuge wie die Kommandozeile, Texteditoren oder Suchfunktionen direkt nutzen. Es arbeitet in einem Ablauf aus Denken, Testen und Anpassen – ähnlich wie ein Mensch, der eine Aufgabe Schritt für Schritt löst. + Quelle: xAI Agent als Helfer im Entwickleralltag xAI nennt diesen Ansatz „Agentic Coding“. Die KI übernimmt dabei nicht nur das Tippen, sondern auch das Planen und Ausführen. Gerade bei sich wiederholenden Aufgaben oder der Arbeit in größeren Codebasen kann das viel Zeit sparen. Unterstützt werden die gängigen Programmiersprachen wie TypeScript, Python, Java, Rust, C++ und Go. Laut interner Tests erreicht Grok Code Fast 1 dabei ein gutes Niveau. Es schnitt auf einem bekannten Benchmark für Programmier-KIs mit rund 71 Prozent Erfolgsquote ab – das liegt im oberen Bereich der aktuellen Lösungen. Gleichzeitig ist das Modell so angelegt, dass es sich gut in bestehende Entwicklungsumgebungen einfügt. Kostenloser Start und Ausblick Zum Marktstart setzt xAI auf Partnerschaften. Über Plattformen wie GitHub Copilot, Cursor oder Windsurf lässt sich Grok Code Fast 1 derzeit kostenlos testen. GitHub gibt an, dass der freie Zugang noch bis zum 2. September möglich ist. Danach kann man das Modell entweder über die Partner weiter nutzen oder direkt über xAI einbinden. Interessant ist auch der Weg bis zum offiziellen Start: Grok Code Fast 1 lief zunächst im Hintergrund unter dem Namen „Sonic“. So konnte xAI bereits erste Rückmeldungen sammeln und das Modell verbessern. Inzwischen arbeitet das Unternehmen an einer neuen Version. Sie soll Eingaben aus verschiedenen Quellen verarbeiten, mehrere Werkzeuge gleichzeitig nutzen und längere Texte besser verstehen. Damit erhöht sich der Druck auf Konkurrenten wie GitHub Copilot oder OpenAI Codex. In vielen Unternehmen übernehmen solche KIs inzwischen einen spürbaren Teil der Programmierarbeit. Microsoft-Chef Satya Nadella sagte kürzlich, dass bereits 20 bis 30 Prozent des Codes in Microsoft-Produkten von KI geschrieben werden. Grok Code Fast 1 will in diesem Umfeld eine ernstzunehmende Alternative sein. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    xAI hat mit Grok Code Fast 1 ein neues KI-Modell vorgestellt, das schneller und günstiger Code generieren kann als viele Konkurrenzprodukte.
    Die KI arbeitet selbstständig, nutzt Tools wie Kommandozeile und Texteditoren und kann komplette Aufgaben lösen.
    Zum Start ist das Modell kostenlos auf Plattformen wie GitHub Copilot verfügbar und soll sich leicht in bestehende Umgebungen integrieren.
    Mit dieser Entwicklung erhöht sich der Druck auf etablierte Anbieter wie OpenAI Codex und GitHub Copilot deutlich.
    QUELLEN
    xAI
    GitHub Blog
    Heise Online
    Reuters
    eWeek
    GitHub Docs

  • Schneller, sparsamer, smarter: Microsoft bringt eigene KI

    Eine Microsoft Bühne mit dem MAI-1 Modell

    Schneller, sparsamer, smarter: Microsoft bringt eigene KI Was steckt hinter den neuen Modellen MAI-1 und MAI-Voice-1? Kurzfassung | Andreas Becker, 29.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Microsoft hat zum ersten Mal zwei große KI-Modelle vorgestellt, die komplett im eigenen Haus entwickelt wurden. MAI-Voice-1 erzeugt Sprache blitzschnell, das Textmodell MAI-1-preview soll mit wenig Rechenaufwand gute Antworten liefern. Damit geht Microsoft einen Schritt weg von der engen Abhängigkeit zu OpenAI – und öffnet neue Möglichkeiten für seine Copilot-Produkte. NEWS Eigene Modelle für Sprache und Text MAI-Voice-1 ist ein Sprachmodell, das Audio in Rekordzeit erzeugt. Eine Minute Sprachtext lässt sich in weniger als einer Sekunde auf nur einer Grafikprozessor-Einheit (GPU) generieren. Das Modell kommt bereits im täglichen Copilot-Update und in Microsofts Podcasts zum Einsatz. In der Testumgebung Copilot Labs lässt sich MAI-Voice-1 auch direkt ausprobieren, inklusive Auswahl von Stimme und Sprechstil. Zusammen mit der Sprach-KI hat Microsoft auch sein erstes großes Textmodell angekündigt: MAI-1-preview. Es wurde auf etwa 15.000 Hochleistungs-Grafikchips trainiert – deutlich weniger als viele andere Modelle, die teilweise auf mehr als 100.000 Chips setzen. Ziel war ein Modell, das effizient arbeitet, aber dennoch leistungsfähig genug ist für alltägliche Aufgaben im digitalen Assistenten Copilot. Qualität durch Effizienz Laut Microsoft liegt der Fokus nicht auf reiner Rechenpower, sondern auf kluger Datenauswahl und sparsamer Nutzung der verfügbaren Ressourcen. Die Text-KI soll vor allem präzise, nützliche und verständliche Antworten liefern – und das mit weniger Aufwand. In einem öffentlichen Test auf der Plattform LMArena erreichte das Modell zum Start einen soliden Platz unter den führenden Systemen. Offizielle Leistungswerte hat Microsoft bislang aber nicht veröffentlicht. Auch bei der Weiterentwicklung geht Microsoft einen eigenen Weg. Ziel sei es, Modelle so zu gestalten, dass sie nicht den Eindruck erwecken, ein Bewusstsein oder eigene Ziele zu haben. Der Chef der KI-Abteilung, Mustafa Suleyman, warnt davor, KIs zu vermenschlichen – und will gezielt verhindern, dass die Nutzer solchen Systemen zu viel zutrauen. Das betrifft vor allem die sogenannte Feinabstimmung nach dem eigentlichen Training. Strategie, Plattform und OpenAI Hinter dem Schritt steckt eine klare Strategie: Microsoft will auf Dauer stärker auf eigene Modelle setzen, um seine Angebote in Windows, Office und der Cloud-Plattform Azure unabhängiger und flexibler zu gestalten. Dafür baut das Unternehmen neue Rechenzentren auf Basis der neuesten Nvidia-Chips. Die hauseigenen Modelle sollen je nach Aufgabe und Anwendung unterschiedlich eingesetzt werden – mal allein, mal in Kombination mit anderen Systemen. Die Ankündigung kommt zu einem interessanten Zeitpunkt. Microsoft ist der größte Investor von OpenAI und nutzt bisher vor allem dessen Modelle für Copilot. Gleichzeitig laufen derzeit neue Vertragsverhandlungen mit OpenAI – nicht ohne Spannungen. Die neuen Eigenentwicklungen verschaffen Microsoft mehr Verhandlungsspielraum. Offiziell betont das Unternehmen aber, dass die Partnerschaft mit OpenAI fortgesetzt und weiter ausgebaut werden soll. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG QUELLEN

  • GPT-5 schlägt GPT-4o – oder doch nicht?

    Ein GPT5 Roboter kämpft gegen einen GPT4o Roboter

    GPT-5 schlägt GPT-4o – oder doch nicht? Ein Blindtest zeigt: Nutzer wählen oft das „schlechtere“ Modell – woran liegt das wirklich? Kurzfassung | Andreas Becker, 26.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Ein kleines Tool sorgt gerade für viel Wirbel: Auf einer Website können Nutzer in einem Blindtest zwischen GPT-5 und GPT-4o vergleichen – ohne zu wissen, welches Modell welche Antwort liefert. Die Ergebnisse überraschen. Denn obwohl GPT-5 auf dem Papier die bessere KI ist, wählen viele Nutzer weiterhin lieber GPT-4o. Der Test wirft ein neues Licht auf die Frage, worauf es bei künstlicher Intelligenz wirklich ankommt. Test auf: https://gptblindvoting.vercel.app/ NEWS Wenn Technik auf Gefühl trifft Das Tool zeigt zwei Antworten auf dieselbe Frage. Dann wird abgestimmt, welche besser gefällt. Am Ende steht eine Auswertung, welches Modell im persönlichen Vergleich vorne liegt. Der Entwickler hat sich bewusst für kurze, nüchterne Antworten entschieden – ohne Formatierung oder spezielle Hinweise, die auf das jeweilige Modell hindeuten könnten. Die Ergebnisse zeigen ein gemischtes Bild. Wer mit KI programmiert oder Fakten recherchiert, tendiert meist zu GPT-5. Wer dagegen mit der KI Geschichten schreibt, brainstormt oder einfach gerne plaudert, greift häufiger zu GPT-4o. Der Test macht sichtbar, dass viele Nutzer weniger Wert auf reine Leistung legen – sondern eher darauf, wie „menschlich“ sich die Antwort anfühlt.
    Cookies aktivieren um den Inhalt zu sehen:
    Cookiebar öffnen

    Some of you asked me about my blind test, so I created a quick website for yall to test 4o against 5 yourself. Both have the same system message to give short outputs without formatting because else its too easy to see which one is which. https://t.co/vSECvNCQZe — Flowers ☾ (@flowersslop) August 8, 2025
    Ein Rückzieher mit Signalwirkung Die Diskussion kommt nicht von ungefähr. Nach dem Start von GPT-5 Anfang August hagelte es Kritik: Die neue Version sei zu nüchtern, zu sachlich, zu wenig einfühlsam. OpenAI reagierte schnell – und stellte GPT-4o, das eigentlich abgeschaltet werden sollte, wieder zur Verfügung. Dabei hatte das ältere Modell im Frühjahr ebenfalls für Diskussionen gesorgt, weil es vielen Nutzern zu übertrieben schmeichelte. Die Folge: OpenAI versucht nun, verschiedene Geschmäcker besser zu bedienen. GPT-5 lässt sich mit vier vordefinierten „Persönlichkeiten“ nutzen – vom nüchternen Roboter bis zum hilfsbereiten Nerd. Damit gesteht das Unternehmen ein, dass es nicht die eine perfekte KI gibt, sondern verschiedene Nutzertypen mit ganz eigenen Erwartungen. + Quelle: https://gptblindvoting.vercel.app/ Gute Noten, aber kein guter Draht? GPT-5 überzeugt technisch: bessere Mathe-Ergebnisse, weniger Fehler, mehr Klarheit. Doch viele Nutzer erleben das Modell als kühler und distanzierter. Gerade Menschen, die KI eher kreativ oder als Begleiter nutzen, vermissen die Wärme und Nähe, die sie bei GPT-4o gespürt haben. Dazu passt, dass manche Nutzer auf Reddit berichten, sich regelrecht von „ihrem“ KI-Modell verabschieden zu müssen. Die Verbindung war persönlich geworden – und die neue Version fühlt sich für viele eher nach Büro statt Wohnzimmer an. Genau das macht den Blindtest so spannend: Er zeigt, dass nicht allein Leistung zählt, sondern auch Ton und Stil entscheidend sind. Warum der Test so viel aussagt Der Blindtest ist mehr als ein nettes Spiel. Er zeigt, wie stark persönliche Vorlieben den Umgang mit KI beeinflussen. Was für den einen sachlich und hilfreich ist, wirkt auf den anderen kühl und abweisend. OpenAI reagiert darauf mit mehr Auswahlmöglichkeiten – ein Schritt, der zeigt: Die Zukunft der KI wird nicht nur leistungsstärker, sondern auch persönlicher. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Ein Blindtest zeigt, dass viele Nutzer GPT-4o trotz technischer Vorteile von GPT-5 bevorzugen.
    Während GPT-5 sachlich und klar agiert, wirkt GPT-4o menschlicher und emotionaler auf viele Nutzer.
    OpenAI reagierte auf Kritik und bringt GPT-4o zurück – mit Fokus auf mehr Auswahl bei KI-Stilen.
    Der Test beweist: Nicht nur Leistung zählt, sondern auch Ton, Stil und persönliche Vorlieben.
    QUELLEN
    VentureBeat
    gptblindvoting
    OpenAI (Introducing GPT-5)
    The Verge
    TechCrunch

  • KI gegen Sonnenstürme: Nasa startet Surya

    Eine KI schützt uns vor einem Sonnensturm

    KI gegen Sonnenstürme: Nasa startet Surya Ein digitales Frühwarnsystem soll gefährliche Sonnenausbrüche zwei Stunden vorher erkennen. Wie funktioniert das Modell wirklich? Kurzfassung | Andreas Becker, 25.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Wenn geladene Teilchen aus der Sonne auf die Erde treffen, kann das empfindliche Technik stören oder sogar ganze Satelliten lahmlegen. Um besser vorbereitet zu sein, haben Nasa und IBM jetzt ein KI-Modell veröffentlicht, das Sonnenstürme vorhersagen soll – und zwar bis zu zwei Stunden im Voraus. Das System heißt „Surya“, basiert auf offenen Daten und verspricht eine deutlich genauere Einschätzung solarer Aktivitäten als bisherige Modelle. NEWS Frühwarnsystem für das Weltall Sonnenstürme entstehen, wenn die Sonne große Mengen Energie ins All schleudert. Diese Eruptionen beeinflussen Funkverbindungen, Navigationssysteme und gefährden Astronauten durch erhöhte Strahlung. Ein Vorwarnsystem hilft, kritische Systeme rechtzeitig zu schützen. Genau da setzt Surya an: Das Modell nutzt über zehn Jahre Bilddaten des Solar Dynamics Observatory, also Millionen Aufnahmen in verschiedenen Wellenlängen, um Muster zu erkennen, die auf bevorstehende Ausbrüche hindeuten. Dabei geht es nicht nur um die reine Vorhersage, sondern auch um das bessere Verständnis solarer Vorgänge. Surya lernt direkt aus Rohbildern, ohne dass Menschen zuvor Regeln festgelegt haben. Der Algorithmus entdeckt selbst, welche Strukturen instabil wirken oder in welchen Regionen bald Aktivität droht. So konnten in Tests schon mehrere Eruptionen erfolgreich und mit Vorlauf erkannt werden – mit Angaben zu Ort, Form und Stärke. Training mit 250 Terabyte Sonnenphysik Das Besondere an Surya: Es handelt sich um ein sogenanntes Foundation Model – also ein Grundmodell, das für viele Anwendungen offen bleibt. Vergleichbar mit Sprachmodellen wie ChatGPT analysiert es nicht nur konkrete Ereignisse, sondern bildet größere Zusammenhänge ab. Dadurch lassen sich auch eher subtile, sich langsam aufbauende Prozesse erkennen. Wer genau hinschaut, sieht im Datenmaterial etwa auch, dass die Sonne am Äquator schneller rotiert als an den Polen – ein physikalischer Effekt, den die KI ebenfalls aus den Daten extrahieren konnte. Das Modell wurde mit rund 250 Terabyte an Solardaten trainiert und als Open Source auf Plattformen wie Hugging Face veröffentlicht. Damit können auch andere Forschungsgruppen es nutzen oder anpassen. Erste Praxistests laufen bereits – etwa für den Schutz von Satelliten, für Polarflug-Routen oder zur Abschätzung von Risiken für Stromnetze. Die größte Stärke von Surya dürfte dabei nicht allein in der höheren Trefferquote liegen, sondern in der Fähigkeit, bisher übersehene Muster sichtbar zu machen. Zukunft mit Weitblick Surya ist kein fertiges Produkt, sondern eher ein Werkzeugkasten. Je mehr Daten hinzukommen, desto besser wird das Modell. Auch eine Kombination mit bestehenden physikalischen Modellen ist vorgesehen. Forscher hoffen zudem, über die Sonne hinaus zu lernen: Was man an unserem Stern erkennt, hilft womöglich, auch andere Sterne besser zu verstehen. Die Sonne wird damit zum Labor – und Surya zum digitalen Zwilling, der uns hilft, ihre Vorgänge etwas besser zu durchschauen. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Nasa und IBM haben das KI-Modell „Surya“ vorgestellt, das Sonnenstürme bis zu zwei Stunden im Voraus erkennen soll.
    Das Modell basiert auf über zehn Jahren Sonnenbeobachtungen und nutzt 250 Terabyte an offenen Solardaten.
    Surya ist Open Source und wird bereits für den Schutz von Satelliten, Flugrouten und Stromnetzen getestet.
    Es gilt als lernfähiges Grundmodell, das über reine Vorhersagen hinaus auch neue Erkenntnisse zur Sonnenphysik liefert.
    QUELLEN
    Wired
    NASA Science
    IBM Newsroom (DE)
    Live Science
    t3n

  • Elon Musks xAI veröffentlicht Grok 2 als offenes Modell

    xAI hat Grok 2 als offenes Modell inklusive der Gewichte veröffentlicht. Elon Musk kündigte auf X an, dass „Grok 2.5“, das 2024 leistungsstärkste Modell von xAI, nun quelloffen verfügbar sei.

    Der Artikel Elon Musks xAI veröffentlicht Grok 2 als offenes Modell erschien zuerst auf THE-DECODER.de.