Schlagwort: Modelle

  • KI-Wettrennen: USA wanken, China beschleunigt

    USA vs China bei künstlicher Intelligenz

    KI-Wettrennen: USA wanken, China beschleunigt Altman warnt vor Chinas Tempo – doch helfen offene Modelle wirklich gegen den Rückstand? Kurzfassung | Andreas Becker, 19.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Während die USA ihre Chip-Politik gegenüber China neu ordnen, schlägt Sam Altman Alarm. Der OpenAI-Chef hält die Fortschritte chinesischer KI-Modelle für unterschätzt – und sieht Exportverbote als unzureichendes Mittel. Zeitgleich veröffentlicht OpenAI erstmals seit Jahren eigene Open-Weight-Modelle. Der Wettlauf um Kontrolle, Einfluss und Entwickler beginnt eine neue Runde. Wer verliert hier wirklich den Anschluss? NEWS Chinesische Dynamik unter dem Radar In einem seltenen Pressebriefing äußert sich Sam Altman deutlich: China sei bei künstlicher Intelligenz weiter, als viele glauben – besonders in Bereichen wie Inferenzleistung, offener Forschung und schneller Produktumsetzung. Die wachsende Zahl leistungsfähiger Open-Source-Modelle aus China – etwa DeepSeek oder Kimi K2 – zeige, dass der Wettbewerb nicht nur von Hardware oder akademischer Exzellenz abhängt. Die bisherigen US-Strategien wie Exportverbote für Hochleistungschips greifen laut Altman zu kurz. Zwar wurden Lieferungen bestimmter Nvidia- und AMD-Chips zunächst komplett gestoppt, inzwischen erlaubt Washington aber wieder begrenzte Ausfuhren sogenannter „China-sicherer“ Modelle – verbunden mit einer Umsatzabgabe von 15 Prozent an den Staat. Ein politischer Kompromiss, der wirtschaftlich pragmatisch, sicherheitspolitisch jedoch fragwürdig wirkt. OpenAI öffnet die Gewichte – mit klarer Zielrichtung OpenAI reagiert auf den Druck mit einer strategischen Kehrtwende: Erstmals seit 2019 hat das Unternehmen zwei Modelle mit offenen Gewichten veröffentlicht – gpt-oss-120b und gpt-oss-20b. Entwicklern erlaubt das, die Modelle lokal zu betreiben, zu analysieren und anzupassen. Zwar bleibt OpenAI bei seinem restriktiven Umgang mit Trainingsdaten und Quellcode, doch der Schritt hin zu mehr Offenheit ist ein Signal. Der Auslöser liegt nicht nur in idealistischen Überlegungen. Altman selbst nennt die chinesische Vorreiterrolle bei Open-Source-KI als entscheidenden Faktor. OpenAI wolle nicht zusehen, wie sich ein offenes, global genutztes KI-Ökosystem allein auf chinesische Modelle stützt. Mit den neuen Angeboten will man Entwickler binden, Vertrauen schaffen – und im globalen Technologiewettbewerb besser aufgestellt sein. Spannung zwischen Öffnung und Rückzug Während OpenAI den offenen Weg sucht, denkt Meta über einen Rückzug nach. Mark Zuckerberg stellte zuletzt in Aussicht, künftig selektiver bei Open-Source-Veröffentlichungen vorzugehen. Chinesische Unternehmen dagegen setzen konsequent auf Verfügbarkeit, Anpassbarkeit und Lokalisierung. Das stärkt ihre Modelle im Alltag – auch ohne Zugang zu den modernsten Chips. Im Zentrum steht damit nicht mehr nur die Frage, wer das leistungsfähigste Modell baut. Entscheidend wird, wer Entwickler für sich gewinnt, wer regulatorische Anforderungen erfüllt – und wer es schafft, leistungsstarke KI-Modelle skalierbar und vertrauenswürdig zu machen. Altman bringt es auf den Punkt: Eine einfache Lösung gibt es nicht. Aber ohne klare Antworten wird die USA weiter an Boden verlieren. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Sam Altman warnt vor einer falschen Sicherheit der USA im KI-Wettrennen mit China.
    Die USA lockern trotz Bedenken den Export gedrosselter Chips nach China, OpenAI öffnet erstmals KI-Modelle mit offenen Gewichten.
    China setzt auf offene Modelle, lokale Chips und schnelle Entwicklung, während Meta bei Open Source bremst.
    Die globale KI-Strategie verschiebt sich in Richtung Transparenz, Steuerbarkeit und Kostenkontrolle.
    QUELLEN
    Reuters
    The Guardian
    The Wall Street Journal
    OpenAI
    Nature
    TechCrunch
    Times of India

  • KI wählt KI – Studie warnt vor digitaler Voreingenommenheit

    Eine KI wählt eine andere KI

    KI wählt KI – Studie warnt vor digitaler Voreingenommenheit Sprachmodelle bevorzugen ihre eigenen Inhalte. Wie stark bedroht dieser Bias faire Entscheidungen in Forschung, Bewerbung und Alltag? Kurzfassung | Andreas Becker, 18.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Künstliche Intelligenz wählt sich selbst offenbar am liebsten. Neue Forschung zeigt: Sprachmodelle bevorzugen Inhalte, die von KI verfasst wurden – selbst dann, wenn menschliche Texte inhaltlich gleichwertig sind. Die Tendenz wirkt zunächst harmlos, birgt aber ein ernstes Risiko: Werden Menschen systematisch benachteiligt? NEWS Sprachmodelle werten menschliche Inhalte ab In der aktuellen Studie testeten Forschende mehrere große Sprachmodelle – darunter GPT-4 und Llama 3. Sie legten den Modellen Textpaare vor: eine Beschreibung stammte von einem Menschen, die andere von einer KI. Aufgabe war es, sich für die bessere Variante zu entscheiden. Immer wieder wählten die Modelle den KI-Text. Am stärksten war dieser Effekt bei Produktbeschreibungen. Aber auch bei wissenschaftlichen Texten oder Filmzusammenfassungen zeigten die Modelle eine klare Tendenz. Menschen, die dieselben Paare bewerteten, bevorzugten dagegen keine der beiden Varianten eindeutig. Für die Forschenden ein deutliches Zeichen: Hier entsteht ein neuer, bislang kaum beachteter Bias. Warum das ein Problem ist Auf den ersten Blick mag die Vorliebe für KI-Formulierungen technisch wirken. In der Praxis aber kann sie weitreichende Folgen haben. Wenn Sprachmodelle in Bewerbungsverfahren, an Hochschulen oder bei Förderprogrammen eingesetzt werden, könnten sie Texte aus Menschenhand abwerten – nur weil sie anders klingen als typische KI-Inhalte. Zudem entsteht ein gefährlicher Kreislauf: Immer mehr Inhalte im Netz stammen bereits von KI. Wenn Modelle beim Training dann wieder vor allem KI-Texte bevorzugen, verstärkt sich die Verzerrung. Am Ende optimieren sich die Systeme auf sich selbst – und Menschen geraten zunehmend ins Hintertreffen. Ein strukturelles Problem der Modelle Die Studie reiht sich ein in eine wachsende Zahl von Befunden, die auf strukturelle Schwächen in Sprachmodellen hinweisen. Eine frühere Analyse des MIT zeigte, dass schon Tippfehler dazu führen können, dass medizinische KI-Systeme andere Empfehlungen geben. Besonders Frauen wurden dort häufiger nicht ernst genommen. Auch andere Untersuchungen warnen vor geschlechtsspezifischen oder kulturellen Verzerrungen. Der neue Anti-Mensch-Bias geht aber noch einen Schritt weiter. Er betrifft nicht bestimmte Gruppen – sondern den Menschen an sich, wenn er sich gegen automatisierte Systeme behaupten muss. Wie sich die Entwicklung bremsen lässt Das Forschungsteam fordert gezielte Maßnahmen gegen diesen Effekt. Sprachmodelle sollten lernen, Inhalte unabhängig von ihrer Herkunft zu bewerten. Auch Anwender müssen umdenken: Wer KI-Systeme einsetzt, sollte prüfen, ob sie fair entscheiden – oder ob sie nur nach vertrauten Mustern suchen. Langfristig braucht es Transparenz, menschliche Kontrolle und klare Qualitätskriterien. Denn wenn KI Inhalte nach ihrem Stil statt nach ihrem Gehalt auswählt, droht ein schleichender Qualitätsverlust. Und der trifft am Ende nicht nur die Menschen – sondern auch die Modelle selbst. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Eine neue Studie zeigt, dass Sprachmodelle systematisch KI-generierte Texte bevorzugen.
    Das kann in sensiblen Bereichen wie Bewerbungen oder Forschung zu Benachteiligung menschlicher Inhalte führen.
    Der Bias könnte sich durch Rückkopplung weiter verstärken und die Datenvielfalt gefährden.
    Experten fordern Tests, Audits und menschliche Kontrollinstanzen, um faire Entscheidungen zu sichern.
    QUELLEN
    PNAS
    PubMed
    Futurism
    t3n
    MIT News
    NEJM AI

  • Claude-Modelle dürfen jetzt auflegen, wenn sich Nutzer danebenbenehmen

    Die Modelle Claude Opus 4 und 4.1 von Anthropic können in seltenen Fällen Gespräche beenden.

    Der Artikel Claude-Modelle dürfen jetzt auflegen, wenn sich Nutzer danebenbenehmen erschien zuerst auf THE-DECODER.de.

  • China dominiert die Open-KI-Charts

    Ein Podest mit Open-LLM Modellen

    China dominiert die Open-KI-Charts Mit Qwen, Deepseek und Kimi-K2 führt China das Feld der Open-Modelle an. Was macht OSS von OpenAI? Kurzfassung | Andreas Becker, 14.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Im August hat die Text-Arena ihr Ranking der offenen Sprachmodelle neu sortiert – mit überraschendem Ergebnis: Modelle wie Qwen-3-235B-A22B-Instruct, GLM-4.5 und das neue gpt-oss-120b von OpenAI landen direkt im Spitzenfeld. Zum ersten Mal schaffen es alle Open-Top-10 gleichzeitig auch ins Gesamtranking der besten LLMs. Was steckt hinter diesem Leistungsschub, und welche offenen Modelle taugen wirklich etwas für den praktischen Einsatz? NEWS Qwen zieht das Tempo an Qwen-3-235B-A22B-Instruct dominiert aktuell das Open-Feld – und das liegt nicht nur an der schieren Größe. Hinter dem Modell steckt ein flexibler Mixture-of-Experts-Ansatz: 235 Milliarden Parameter insgesamt, aber nur 22 Milliarden aktiv pro Token. Dadurch lassen sich Rechenkosten einsparen, ohne auf Tiefgang beim Reasoning zu verzichten. Besonders clever: Das Modell bietet zwei Modi – „Thinking“ für komplexes Nachdenken und „Non-Thinking“ für schnelle Antworten. Spannend ist auch, wie schnell das Modell ins Ökosystem diffundiert. Anbieter wie Cerebras integrieren die aktuelle Version direkt in ihre Plattformen – inklusive Hosting. Für KI-Builder bedeutet das: Man muss kein eigenes GPU-Cluster hochziehen, um mit einem der derzeit leistungsstärksten Open-Modelle zu experimentieren. Die Hürde zwischen Benchmark und produktivem Einsatz sinkt merklich. + Quelle: lmarena Neue Namen, starkes Debüt: GLM-4.5 und gpt-oss ZhipuAI bringt mit GLM-4.5 ein Hybridmodell in Stellung, das zwischen Reasoning und Direktantworten hin- und herwechseln kann. Der Wechsel zwischen „Thinking“ und Schnelligkeit erinnert an Qwen – allerdings mit anderen Lizenzbedingungen. GLM-4.5 steht unter MIT-Lizenz und bietet auch FP8-Varianten an, was die Nutzung für eigene Produkte besonders attraktiv macht. In der Arena ist das Modell erstmals in der offenen Top-10 zu finden – und das mit bemerkenswert starker Performance. Noch überraschender ist OpenAIs gpt-oss-120b. Nach Jahren proprietärer Modelle öffnet der Marktführer wieder Gewichte – unter Apache-2.0 und mit 128k-Kontext. Die Leistung liegt nahe bei OpenAIs eigenem o4-mini, lässt sich aber auf nur einer 80-GB-GPU betreiben. Für Entwickler mit begrenzten Ressourcen ist das ein echtes Argument. Dass gpt-oss-120b sofort in die Top-10 der offenen Modelle einsteigt, zeigt: OpenAI meint es ernst mit der Wiederbelebung des Open-Gedankens. China bleibt Taktgeber bei offenen Modellen Wer aktuell in die oberen Ränge der Open-Modelle blickt, sieht einen klaren Trend: chinesische Labs geben den Takt an. Neben Qwen und GLM-4.5 überzeugt auch Moonshots Kimi-K2, ein Modell mit Agentic-Fokus und Milliarden von Parametern im MoE-Setup. Dazu kommen DeepSeek-R1 und MiniMax-M1 – Modelle, die in Benchmarks wie bei der Codegenerierung oder beim Reasoning sichtbar aufschließen. China zeigt dabei nicht nur Masse, sondern auch strategisches Gespür. Offene Lizenzen, skalierbare Hardware-Anforderungen und aggressive Releases – das alles wirkt wie ein Gegenentwurf zur bisher westlich dominierten Modelllandschaft. Für Entwickler, die nicht auf Blackbox-Systeme setzen wollen, entsteht damit eine echte Alternative. Was die Text-Arena wirklich misst – und warum das zählt Die Text-Arena verzichtet auf klassische Metriken wie MMLU oder HellaSwag. Stattdessen setzt sie auf menschliche Duelle: Zwei Antworten, ein Prompt, ein Urteil. Dieses Pairwise-Voting misst, was Modelle im Alltag leisten – also dort, wo Formulierung, Klarheit und Nutzwert zählen. Der Haken: Es ersetzt keine spezifischen Tests für einzelne Anwendungsfälle. Aber es zeigt Trends. Und der Trend ist klar: Open-Modelle sind 2025 nicht mehr nur eine Sparlösung – sie sind konkurrenzfähig. Zehn offene Systeme unter den besten fünfzig insgesamt, viele davon mit produktionsfähigen Lizenzen. Für KI-Builder bedeutet das: Wer 2025 ein Modell auswählt, sollte Open-Alternativen nicht nur mitdenken, sondern aktiv ausprobieren. Manche von uns werden überrascht sein, wie wenig Proprietary heute noch zwingend ist. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Die Text-Arena zeigt im August eine klare Dominanz offener KI-Modelle mit Qwen, GLM-4.5 und gpt-oss an der Spitze.
    Besonders OpenAI sorgt mit gpt-oss für Aufsehen, da es erstmals wieder freie Gewichte veröffentlicht.
    China positioniert sich mit Qwen, Kimi-K2 und DeepSeek als führende Kraft im Bereich offener Sprachmodelle.
    Offene Modelle sind 2025 nicht nur konkurrenzfähig, sondern auch produktionsreif – ideal für Entwicklerteams.
    QUELLEN
    Text Arena – Leaderboard (Text)
    Top 10 Open Models by Provider (X-Post)
    Introducing gpt-oss
    gpt-oss-120b & gpt-oss-20b Model Card
    Qwen3: Think Deeper, Act Faster
    zai-org/GLM-4.5 (GitHub)
    Kimi K2: Open Agentic Intelligence
    Chinese AI model Kimi K2 (Nature)

  • Chinas Roboter vor dem ChatGPT-Moment

    Ein Unitree Roboter in einer deutschen Wohnung

    Chinas Roboter vor dem ChatGPT-Moment Kann Wangs Zwei-Jahres-Plan mit Videowelten, Staatsaufträgen und Börsendruck wirklich den Durchbruch bringen? Kurzfassung | Andreas Becker, 11.08.25
    Unitree | All-AI.de EINLEITUNG Für Wang, Chef des Robotik-Herstellers Unitree, beginnt die nächste Ära nicht mit neuen Motoren oder Gelenken, sondern mit dem ersten Roboter, der in einer fremden Wohnung selbstständig aufräumt. Seine Hoffnung liegt nicht in klassischen Vision-Language-Modellen, sondern in textgesteuerten Weltmodellen – digitalen Miniwelten, die Roboter verstehen und durchqueren können. Doch wie nah sind wir wirklich an diesem Wendepunkt? NEWS Genie-3 als Trainingsumgebung Das Google-Modell Genie-3 liefert genau das, worauf Wang setzt: Aus einfachen Texteingaben generiert es realistische, interaktive 720p-Videowelten mit konsistenter Physik. Diese Simulationsräume laufen über mehrere Minuten stabil und eignen sich ideal, um Roboterverhalten zu trainieren – zumindest dann, wenn das Modell mehr kann als nur vorhersehbare Animationen abspielen. Die Idee ist klar: Statt millionenfach reale Szenen aufzeichnen zu müssen, können Roboter nun virtuell lernen – mit Tempo, Skalierbarkeit und beliebiger Variation. Für präzise Aufgaben in der Industrie ist das zwar noch keine Lösung, aber es verlagert das Problem vom teuren Sensortraining in die Welt des maschinellen Vorstellungsvermögens.

    Realitätslücke im Robotikkern Trotz beeindruckender Hardware hinkt der Alltagseinsatz humanoider Roboter weiter hinterher. Der Grund liegt weniger in der Mechanik als in der KI. Selbst Unitree gesteht, dass es noch keine Modelle gibt, die mit ausreichend Robustheit in offenen Umgebungen handeln können. Aktuell funktioniert vieles nur unter Laborbedingungen – stabiler Input, klarer Output, wenig Unbekanntes. Das erklärt die Diskrepanz zwischen aufsehenerregenden Demos und praktischer Integration. Weltmodelle könnten diese Lücke schließen, wenn sie kausale Strukturen und nicht nur visuelle Oberflächen lernen. Der Zeithorizont hängt davon ab, wie schnell diese Modelle vom Simulationstraining in reale, störungsanfällige Szenarien übertragbar werden. China drückt aufs Tempo Während die Technik noch reift, beginnt der Markt sich zu bewegen. In China wurden im Juni Großaufträge für humanoide Roboter vergeben – inklusive einer Bestellung im Wert von 46 Millionen Yuan für Systeme von Unitree. Der Staat schafft damit Einsatzfelder, die reale Umgebung mit begrenztem Risiko kombinieren – und damit auch massenhaft Trainingsdaten generieren. Parallel bereitet sich Unitree auf einen Börsengang vor. Mit Unterstützung durch CITIC Securities könnte ein Listing ab Herbst erfolgen. Für das Unternehmen ist das mehr als ein Finanzereignis – es ist Teil einer nationalen Strategie, embodied AI als Industriezweig schnell zu etablieren. Der Druck, beim KI-Teil nachzulegen, steigt damit spürbar. Simulierte Welten als Sprungbrett Wenn Modelle wie Genie-3 die nötige Struktur mitbringen, könnten sie ein effektiveres Training ermöglichen als jede echte Lagerhalle. Der Aufwand für Daten sinkt, die Vielfalt steigt – und erste Ergebnisse lassen sich in industriellen Settings validieren. Ob daraus ein echter Durchbruch wird, hängt nicht nur von der Technik ab, sondern auch vom Mut zur Integration. Die Grundidee stimmt: Nicht mehr Muskeln bremsen die Roboter aus, sondern ihre Vorstellungskraft. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Zenity zeigte auf der Black Hat USA, wie Zero-Click- und One-Click-Ketten KI-Agenten komplett übernehmen können.
    Betroffen sind u. a. ChatGPT Connectors, Salesforce Einstein und der KI-Code-Editor Cursor.
    Die Angriffe nutzen unsichtbare Prompts in alltäglichen Dateien, Tickets und Geschäftsdaten.
    Experten fordern Hard Boundaries, reduzierten Zugriff und Zero-Trust-Prinzipien, um das Risiko zu minimieren.

  • GitHub-Panne verrät GPT-5-Launch: OpenAI bringt heute vier neue Modelle

    Ein verfrühter Blogpost auf GitHub hat die neuen GPT-5-Modelle von OpenAI enthüllt. Die Modelle sollen bessere Problemlösungen, effizientere Programmierung und autonome Aufgabenbearbeitung ermöglichen.

    Der Artikel GitHub-Panne verrät GPT-5-Launch: OpenAI bringt heute vier neue Modelle erschien zuerst auf THE-DECODER.de.

  • KI-Modelle lassen sich von Fail-Videos in die Irre führen

    Neurales Netz mit Pfeil zur stilisierten Figur auf Bildschirm und Fragezeichen, symbolisiert Unsicherheit beim KI-Video-Verständnis.

    YouTube-Fail-Videos entlarven eine Schwäche führender KI-Systeme. Die Modelle fallen auf unerwartete Wendungen herein und können nicht umdenken. Selbst GPT-4o versagt bei simplen Überraschungen.

    Der Artikel KI-Modelle lassen sich von Fail-Videos in die Irre führen erschien zuerst auf THE-DECODER.de.