Schlagwort: Modell

  • KI auf Zeitreise: Sprachmodell rekonstruiert Geschichte

    Ein Wissenschaftler aus 2025 reist ins Jahr 1834

    KI auf Zeitreise: Sprachmodell rekonstruiert Geschichte Ein simpler Prompt bringt ein ganzes Jahrhundert zurück. Wie kann ein LLM historische Ereignisse treffen, die es nie gelernt hat? Kurzfassung | Andreas Becker, 24.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Ein Student trainiert ein KI-Sprachmodell auf viktorianischen Texten – und wird von seinem eigenen Code belehrt. Als die KI bei einem simplen Prompt plötzlich historische Proteste beschreibt, die tatsächlich 1834 in London stattfanden, beginnt ein verblüffendes Experiment an der Grenze zwischen Statistik und Geschichte. NEWS Zeitreise per Tokenizer Hayk Grigorian, Informatikstudent in Pennsylvania, wollte eigentlich nur ein Sprachmodell bauen, das sich anhört wie ein Zeitungsredakteur aus dem 19. Jahrhundert. Dafür hat er über 7.000 Bücher, Gesetzestexte und Zeitungen aus dem London der Jahre 1800 bis 1875 gesammelt – und daraus ein eigenes kleines LLM trainiert. Moderne Begriffe fliegen raus, der selbst entwickelte Tokenizer akzeptiert nur Wörter, die ein echter Viktorianer gekannt hätte. Das Projekt nennt er „TimeCapsuleLLM“. Und anders als bei typischen Finetunes setzt Grigorian auf vollständiges Training from scratch. Das Modell soll nicht moderne Sprache imitieren – es soll vergessen, dass es sie je gegeben hat. Ein bisschen so, als würde man ein neuronales Netz mit einer Zeitmaschine in die British Library schicken. Wenn Halluzinationen plötzlich stimmen Die Überraschung kam, als Grigorian dem Modell den Satz „It was the year of our Lord 1834“ vorsetzte. Die Fortsetzung beschrieb Londoner Straßen voller Proteste, Petitionen und politische Spannungen – inklusive Nennung von Lord Palmerston. Der Student googelte, was es damit auf sich hatte – und stellte fest: Die Beschreibung passte verblüffend gut auf reale Ereignisse. 1834 tobten tatsächlich heftige Proteste gegen das neue Armengesetz. Palmerston war zu der Zeit britischer Außenminister. Grigorian hatte dem Modell keine gezielte Info über 1834 eingespeist. Die Verknüpfung entstand rein durch Wahrscheinlichkeiten im Textkorpus – ein statistischer Lottogewinn, gespeist aus 6,25 GB viktorianischem Material. Was bei früheren Versionen noch nach schönem Kauderwelsch klang, wirkt in Version 1 wie ein echtes Fragment aus dem Jahr 1834. Ein netter Nebeneffekt für KI-Nerds: Die Konfabulationen nehmen ab, je besser der Datensatz und je präziser das Training. Ein Effekt, der selbst bei kleinen Modellen sichtbar wird – und der zeigt, wie wichtig gute Trainingsdaten bleiben. Historisches Sprachmodell statt Rollenspiel Das TimeCapsuleLLM gehört zu einer wachsenden Gruppe sogenannter historischer LLMs. Manche Projekte generieren Texte im Stil der Ming-Dynastie oder der Aufklärung. Sie sollen keine Faktenmaschinen sein, sondern Denk- und Sprachwelten rekonstruieren – ein Werkzeug für Sprachhistoriker, Digital Humanities oder alle, die wissen wollen, wie ein Parlamentarier 1850 über „öffentliche Wohlfahrt“ geschrieben hätte. Grigorian stellt sein Projekt offen ins Netz. Wer will, kann mittrainieren – oder eigene Städte als Textkapsel aufsetzen. Vielleicht folgt bald ein Modell, das Berliner Zeitungen von 1848 liest, als wären sie heute erst gedruckt worden. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Ein Student trainiert ein KI-Modell ausschließlich auf Texten aus dem viktorianischen London zwischen 1800 und 1875.
    Das Sprachmodell beschreibt überraschend präzise historische Proteste von 1834 – ohne diese je explizit gelernt zu haben.
    Das Experiment zeigt, wie detailgetreu und glaubwürdig historische LLMs rekonstruieren können, wenn der Datensatz stimmt.
    TimeCapsuleLLM ist öffentlich zugänglich und inspiriert weitere Projekte zur digitalen Geschichtsrekonstruktion.
    QUELLEN
    Ars Technica
    GitHub (TimeCapsuleLLM)
    Reddit (r/LocalLLaMA)
    Hugging Face (TimeCapsuleLLM)
    The National Archives

  • Deepseek V3.1: Mehr Leistung, weniger Kosten

    Ein Deepseek Wal

    Deepseek V3.1: Mehr Leistung, weniger Kosten Das Hybridmodell überzeugt mit 128k Kontext und günstigeren Preisen als GPT-5. Ist dies der neue Standard für KI-Projekte? Kurzfassung | Andreas Becker, 21.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Mit dem neuen Modell V3.1 zieht DeepSeek nach: Zum ersten Mal lässt sich zwischen zwei Betriebsmodi umschalten – je nachdem, ob komplexes Denken oder schnelle Antworten gefragt sind. Die hybride Architektur passt zur wachsenden Bedeutung von KI-Agenten. Gleichzeitig bleibt Deepseek seiner Linie treu: viel Leistung, niedriger Preis. NEWS Zwei Modi, flexibel einsetzbar V3.1 arbeitet wahlweise im Think- oder im Non-Think-Modus. Der Think-Modus ist auf logisches Schlussfolgern und den Einsatz von Werkzeugen ausgelegt. Der Non-Think-Modus dagegen kümmert sich effizient um einfachere Aufgaben. Beide Modi teilen sich ein großes Kontextfenster von 128.000 Tokens. Die Auswahl erfolgt per Schalter im Deepseek-Chat oder über unterschiedliche API-Endpunkte. Aktiviert wird der Denkmodus über spezielle Prompt-Tokens. Diese Trennung macht das Modell flexibel: Wer schnelle Antworten braucht, spart Rechenleistung. Wer präzise Analysen will, bekommt Zugriff auf Agenten, Tool-Calls und mehrstufige Abläufe. Entwicklern gibt das mehr Kontrolle – sowohl technisch als auch finanziell.. + + Quelle: Deepseek Längere Kontexte, gezieltes Training Im Vergleich zum Vorgänger hat Deepseek V3.1 mit 840 Milliarden zusätzlichen Tokens deutlich aufgestockt. Das Training wurde in zwei Phasen unterteilt: eine breite 32k-Phase und eine verlängerte 128k-Phase. Dadurch kann das Modell längere Kontexte besser verstehen – zum Beispiel ganze Codebasen oder komplexe Suchanfragen. In Benchmarks wie SWE-Bench oder Terminal-Bench zeigt sich das deutlich. Besonders in Code- und Logikaufgaben schneidet V3.1 besser ab als das frühere Reasoning-Modell R1. Der Think-Modus liefert zudem schnellere und präzisere Antworten als die bisherige Version R1-0528. Das macht das Modell vor allem für Agenten-basierte Workflows attraktiv. + Quelle: DeepSeek Günstiger als die Konkurrenz Ab dem 5. September 2025 gelten neue Preise. Eingaben kosten bei Cache-Treffer 0,07 US-Dollar pro Million Tokens, bei Cache-Fehlschlag 0,56 US-Dollar. Für Ausgaben werden 1,68 US-Dollar fällig. Zum Vergleich: OpenAI verlangt für GPT-5 rund 10 Dollar pro Million Tokens – Deepseek bleibt also deutlich günstiger. Für Entwickler bedeutet das: Agenten-Logik kann kosteneffizient getestet und skaliert werden. Das große Kontextfenster sorgt dafür, dass auch aufwändige Aufgaben nicht unnötig teuer werden. Die Idee, Denkaufwand nur bei Bedarf zu aktivieren, trifft den Nerv aktueller Anwendungsfälle. + Quelle: DeepSeek Offen und anschlussfähig V3.1 ist unter MIT-Lizenz auf Hugging Face verfügbar. Das Modell kann direkt über zwei spezialisierte API-Endpunkte genutzt werden. Deepseek unterstützt außerdem das Format der Anthropic-API und testet „Strict Function Calling“ als neue Option. Ziel ist, die Integration in bestehende Systeme so einfach wie möglich zu machen – ob für Forschung oder Produkte. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Deepseek V3.1 bringt ein hybrides Konzept mit zwei Modi: schnelles Antworten oder tiefes logisches Denken.
    Das Modell bietet ein großes Kontextfenster von 128k Tokens und zeigt starke Benchmark-Ergebnisse.
    Mit deutlich niedrigeren Preisen als GPT-5 richtet es sich besonders an Entwickler und Agenten-Workflows.
    Über Hugging Face und offene APIs ist V3.1 leicht integrierbar und flexibel nutzbar.
    QUELLEN
    THE DECODER
    DeepSeek API Docs (Release)
    DeepSeek API Docs (Pricing)
    Hugging Face
    Reuters

  • KI macht Photoshop Konkurrenz

    Ein Avatar in vielen Varianten

    KI macht Photoshop Konkurrenz Kann Qwen-Image-Edit klassische Bildbearbeiter bei Seriencontent und Typo schlagen? Kurzfassung | Andreas Becker, 19.08.25
    Alibaba | All-AI.de EINLEITUNG Mit Qwen-Image-Edit hat das chinesische Qwen-Team ein neues KI-Modell vorgestellt, das gezielte und qualitativ hochwertige Bildbearbeitung möglich macht. Das Besondere: Das Modell kann nicht nur Objekte im Bild verändern, sondern auch Texte präzise bearbeiten – inklusive Stil, Größe und Sprache. Was bisher oft an den Grenzen gängiger Bildgeneratoren scheiterte, wird damit zur praktischen Anwendung. Könnte Qwen-Image-Edit den Alltag in Design und Content-Produktion verändern? NEWS Inhalte ändern, ohne das Bild zu zerstören Qwen-Image-Edit kombiniert zwei zentrale Fähigkeiten: semantische Bearbeitung und visuelle Detailkorrektur. Semantisch heißt, dass sich etwa Objekte drehen, Stile verändern oder neue Inhalte erschaffen lassen – ohne dass die Bildaussage verloren geht. Ein Capybara bleibt ein Capybara, auch wenn es plötzlich eine Ghibli-Optik trägt oder von hinten gezeigt wird. Bei der Detailbearbeitung geht es feiner zu. Einzelne Elemente lassen sich hinzufügen oder entfernen, ohne den Rest des Bildes anzutasten. Ein Schild taucht auf, Haare verschwinden, ein Buchstabe wechselt die Farbe – alles bleibt optisch konsistent. Das Modell erkennt, was erhalten bleiben muss, und bearbeitet gezielt nur den gewünschten Bereich. Quelle: Alibaba Zwei Steuerungen für ein Ergebnis Technisch basiert Qwen-Image-Edit auf dem großen Sprachbildmodell Qwen-Image mit 20 Milliarden Parametern. Für die Bearbeitung wird das Eingabebild parallel analysiert: Das Modul Qwen2.5-VL erkennt die Bedeutung von Objekten, der VAE Encoder sorgt dafür, dass Aussehen und Stil nicht verloren gehen. Dadurch bleibt die Bildstruktur intakt, auch wenn tiefgreifende Änderungen vorgenommen werden. Ein echtes Alleinstellungsmerkmal ist die Textbearbeitung. Qwen-Image-Edit kann englische und chinesische Texte direkt im Bild ändern – inklusive Schriftart, Stil und Platzierung. Das klappt sowohl bei großen Überschriften als auch bei feinen Details wie Etiketten oder Plakaten. Andere Bildmodelle tun sich hier oft schwer. + Quelle: Alibaba Vom Calligraphy-Fix bis zum Emoji-Pack Die Einsatzmöglichkeiten sind vielfältig. Das Modell lässt sich Schritt für Schritt steuern: Fehler in generierten Inhalten, etwa falsche Zeichen in chinesischer Kalligrafie, können gezielt korrigiert werden – inklusive Nachbesserungen bei Einzelzeichen. Gleichzeitig zeigt das Qwen-Team, wie sich mit vorgegebenen Prompts sogar ganze Emoji-Sets im Stil verschiedener MBTI-Persönlichkeiten erstellen lassen. Auch Stilübertragungen oder Perspektivwechsel gelingen. Produkte können von mehreren Seiten gezeigt werden, Avatare erhalten neue Looks. Vor allem im E-Commerce, Branding oder der kreativen Content-Produktion eröffnet das neue Möglichkeiten – ohne manuelle Nachbearbeitung. + Quelle: Alibaba Einfache Nutzung, offene Modelle Qwen-Image-Edit ist über den Qwen-Chat nutzbar, die Modelle stehen auch auf Hugging Face und ModelScope bereit. Erste Experimente zeigen, wie gezielt und stabil das Modell arbeitet. Wo bisher oft neu generiert werden musste, reicht jetzt ein gezielter Edit. Der Fokus auf Textbearbeitung hebt Qwen-Image-Edit von anderen Modellen ab – ein Bereich, der in der KI-Bildwelt lange Schwachstelle war. Auch wenn es noch nicht jedes Detail perfekt trifft, ist die Richtung klar: Bildbearbeitung mit KI wird präziser, kontrollierbarer und deutlich praxisnäher. + Quelle: Alibaba – Benchmark von Qwen DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Qwen-Image-Edit ermöglicht präzise KI-Bildbearbeitung mit Fokus auf Texte und feine Retuschen.
    Das Modell kombiniert semantische und optische Kontrolle für stabile, gezielte Änderungen.
    Stärken zeigt es bei typografieintensiven Motiven wie Logos, Schildern und Produktbildern.
    Die Lösung lässt sich über Qwen-Chat und Plattformen wie Hugging Face oder ModelScope testen.
    QUELLEN
    Qwen Blog
    Hugging Face Model Card
    Alibaba Cloud Doku
    AASTOCKS News
    Futunn Newsflash
    MarkTechPost
    Hugging Face Space

  • GLM-4.5: Der neue Open-Source-Alleskönner

    Oberflaeche von ZAI

    GLM-4.5: Der neue Open-Source-Alleskönner Text, Code, Bilder und sogar Spiele: Zhipu AIs Modell bietet mehr als erwartet. Kann das der nächste große KI-Hit werden? Kurzfassung | Andreas Becker, 17.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Das chinesische KI-Start-up Zhipu AI mischt den Markt für offene Sprachmodelle auf. Mit GLM-4.5 und der multimodalen Variante GLM-4.5V bringt das Unternehmen Modelle, die nicht nur programmieren und argumentieren können, sondern auch Bilder und Videos verstehen. Dank einer durchdachten Architektur und offenem Zugang richtet sich das Angebot an Entwickler, Forscher und Unternehmen. Was steckt dahinter – und was macht es besonders? NEWS Zwei Modi, ein Ziel GLM-4.5 vereint zwei Betriebsmodi in einem Modell: einen Thinking-Mode für komplexes Denken und einen Schnellmodus für zügige Antworten. Damit soll es nicht nur kurze Antworten liefern, sondern auch bei anspruchsvollen Aufgaben bestehen – etwa beim Programmieren oder logischen Schließen. In internen Tests erreicht GLM-4.5 auf zwölf Benchmarks den dritten Platz und liegt bei bestimmten Aufgaben, etwa beim Browsen im Web oder beim mathematischen Denken, sogar vor bekannten Modellen wie Claude Opus. Besonders auffällig: Das Modell erzielt diese Werte mit deutlich weniger Parametern – ein Hinweis auf hohe Effizienz. + Quelle: zAI Architektur mit Tiefe Technisch basiert das Modell auf einer Mixture-of-Experts-Architektur. Zwar umfasst das Modell insgesamt 355 Milliarden Parameter, doch nur ein Bruchteil davon – 32 Milliarden – ist jeweils aktiv. Das spart Rechenleistung. Die leichtere Version, GLM-4.5-Air, reduziert diesen Wert noch einmal deutlich. Statt auf besonders breite Schichten setzt Zhipu AI auf viele tiefe Schichten. Diese Struktur soll nach eigenen Angaben das Denkvermögen verbessern. Unterstützt wird das durch neue Mechanismen wie Multi-Token-Vorhersage und viele Attention-Heads, die komplexe Muster besser erfassen können. Multimodal und praktisch GLM-4.5V erweitert das System um Bild- und Videofunktionen. Es kann etwa Screenshots analysieren, daraus Webseiten rekonstruieren oder einfache Spiele bauen. In einer Demo genügt ein kurzer Prompt, um ein spielbares Mini-Game im Browser zu erzeugen. Auch komplexere Anwendungen wie komplette Web-Apps lassen sich erstellen. Die multimodale Variante baut auf dem leichteren Air-Modell auf und bietet so ein gutes Verhältnis aus Leistung und Ressourcenverbrauch. Für Nutzer mit speziellen Anforderungen an visuelle Inhalte oder autonome Agenten ist das Modell besonders interessant. Offen und bereit zur Nutzung Zhipu AI setzt bewusst auf Offenheit. Code und Modellgewichte stehen unter MIT-Lizenz frei zur Verfügung – unter anderem auf Hugging Face. Auch die Nutzung über eine OpenAI-kompatible API ist möglich. Die Plattform z.ai bietet zudem eine Weboberfläche für eigene Tests. Durch die Kombination aus leistungsfähiger Architektur, breitem Funktionsspektrum und offener Bereitstellung positioniert sich Zhipu AI als ernstzunehmender Akteur im Open-Source-Segment. Entscheidend wird nun sein, wie das Modell im Alltag performt – und wie gut es sich in bestehende Workflows integrieren lässt. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Zhipu AI stellt mit GLM-4.5 und GLM-4.5V zwei leistungsfähige Open-Source-Modelle vor, die Text, Code und visuelle Inhalte verarbeiten können.
    Die Architektur basiert auf einer effizienten Mixture-of-Experts-Struktur mit tiefen Netzwerken und neuen Vorhersageverfahren.
    Das Modell erreicht starke Benchmark-Ergebnisse bei geringem Ressourcenverbrauch und steht unter MIT-Lizenz frei zur Verfügung.
    Besonders interessant: Die visuelle Variante GLM-4.5V kann Web-Apps aus Bildern generieren und wird per API einfach nutzbar gemacht.
    QUELLEN
    Zhipu AI Blog
    GLM-4.5 Website
    Hugging Face: GLM-4.5
    Hugging Face: GLM-4.5-Air
    Hugging Face: GLM-4.5V
    Z.ai Docs: GLM-4.5V

  • Text im Bild: Tencent überholt GPT-4o knapp

    Bilder von X-Omni

    Text im Bild: Tencent überholt GPT-4o knapp X-Omni punktet in Benchmarks mit beeindruckender Textqualität. Was bedeutet das für den KI-Markt? Kurzfassung | Andreas Becker, 16.08.25
    Tencent | All-AI.de EINLEITUNG Mit X-Omni stellt Tencent ein KI-System vor, das gleich mehrere offene Komponenten kombiniert – und dabei GPT-4o erstaunlich nahekommt. Besonders bei der Darstellung von Text in Bildern zeigt das Modell in Benchmarks starke Ergebnisse. Möglich macht das ein neuartiger Trainingsansatz mit Reinforcement Learning. Was steckt hinter diesem Open-Source Herausforderer? NEWS Zwei Modelle, ein gemeinsames Ziel X-Omni verbindet ein autoregressives Sprachmodell mit einem Diffusionsdecoder. Ersteres plant, welche Bedeutungselemente im Bild erscheinen sollen, letzterer erzeugt daraus die visuellen Inhalte. Während viele vergleichbare Systeme beide Komponenten separat trainieren, geht Tencent einen anderen Weg: Reinforcement Learning bringt die Modelle gezielt aufeinander abgestimmt ins Gleichgewicht. Die Technik dahinter ist ausgeklügelt. Statt Bilder pixelweise zu analysieren, nutzt X-Omni eine semantische Tokenisierung. Ein spezieller Tokenizer zerlegt Bilder in über 16.000 Bedeutungseinheiten. Grundlage ist das Open-Source-Modell Qwen2.5 von Alibaba, erweitert um visuelle Schichten. Der Decoder FLUX.1-dev stammt vom Freiburger Start-up Black Forest Labs. Gelernt wird über ein mehrstufiges Bewertungssystem. Es prüft, ob Bilder ästhetisch wirken, die Texteingabe korrekt umgesetzt ist und ob eingebetteter Text gut lesbar bleibt. Daraus ergibt sich Feedback, das die Token-Erzeugung Schritt für Schritt verbessert. + Quelle: Tencent Starke Texte, gute Bilder In Benchmarks zeigt sich der Vorteil dieses Ansatzes vor allem bei der Darstellung von Text. Im englischen OneIG-Test erreicht X-Omni 0,901 Punkte – der höchste gemessene Wert. Auch bei chinesischen Texten liegt es weit vorn. Auf dem neuen LongText-Benchmark überzeugt das Modell besonders bei langen Absätzen. Zwar gibt es bei dichten Texten noch gelegentliche Fehler, doch die Lesequalität ist insgesamt hoch. Bei der Bildgenerierung erreicht X-Omni auf dem DPG-Benchmark 87,65 Punkte – mehr als GPT-4o und alle anderen offenen „Unified Models“. Auch beim OCRBench, der Textgenauigkeit prüft, schneidet X-Omni solide ab. Der Vorsprung ist meist gering, aber konstant. + Quelle: Tencent Ein Open-Source-System mit Ambitionen Tencents Ansatz zeigt, wie leistungsfähig offene Kombinationen sein können. X-Omni nutzt Komponenten unterschiedlicher Herkunft – auch von Konkurrenten – und formt daraus ein Modell auf hohem Niveau. Der Quellcode, Modelle und sogar ein Datensatz für lange Texte in Bildern stehen frei zur Verfügung. Ein großer Durchbruch ist es nicht. Doch X-Omni zeigt, wie sich Qualität und Offenheit verbinden lassen. Das System ist kein fertiges Produkt, sondern eine starke Basis für weitere Entwicklung – und ein spannendes Signal, dass Open-Source-Projekte zunehmend mit großen kommerziellen Modellen mithalten können. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Tencent hat mit X-Omni ein Open-Source-Bildmodell vorgestellt, das GPT-4o in Benchmarks teilweise übertrifft – besonders bei Text in Bildern.
    Die Architektur kombiniert semantische Token mit Diffusionsdecoder und nutzt Reinforcement Learning für optimierte Ergebnisse.
    Das Modell liefert starke Textqualität und solide Bildleistung, ganz ohne classifier-free guidance.
    Durch offene Komponenten und klare Trainingsmethoden bietet X-Omni viel Potenzial für Entwickler und Forscher.
    QUELLEN
    arXiv
    GitHub – X-Omni
    Hugging Face – Modell
    Projektseite
    Hugging Face – FLUX.1-dev
    Hugging Face – LongText-Bench

  • Sam Altman enthüllt: DU nutzt GPT‑5 völlig falsch!

    GPT 5 Oberfläche mit 2 Knöpfen

    Sam Altman enthüllt: DU nutzt ChatGPT‑5 völlig falsch! OpenAIs neues Modell liefert bei richtiger Nutzung Aha-Momente. Doch woran scheitert die breite Anwendung? Kurzfassung | Andreas Becker, 15.08.25
    gpt-image-1 | All-AI.de EINLEITUNG OpenAI hat am 7. August GPT‑5 vorgestellt. Das Modell soll automatisch erkennen, wann es schnell antworten kann und wann es besser gründlich denkt. Die harten Zahlen aus Sam Altmans Posts zeigen jedoch ein anderes Bild: Vor dem Start nutzte fast niemand die Reasoning‑Optionen, selbst unter Plus‑Nutzern nur wenige. Nach dem Launch stieg die Quote zwar, bleibt aber überraschend niedrig. Genau hier liegt der Graben zwischen Hype und Alltag. NEWS Was Altmans Zahlen verraten Altman nennt konkrete Anteile für die Reasoning‑Nutzung: Unter Gratis‑Nutzern lag sie zuvor bei unter einem Prozent, bei Plus‑Nutzern bei sieben Prozent. Nach der Einführung von GPT‑5 kletterten die Anteile, aber sie blieben deutlich hinter der breiten Erwartung zurück. Heißt für uns: Viele von uns klicken auf den Standard und verzichten damit auf die gründliche Variante, obwohl sie bei kniffligen Aufgaben die besseren Antworten liefert. Das erklärt die verhaltene Reaktion auf GPT‑5. Wer nur schnelle Antworten testet, erlebt kaum den eigentlichen Sprung. Reasoning‑Modelle planen und prüfen vor der Ausgabe. Das kostet Zeit und Rechenleistung, zahlt sich aber bei Logik, Code und Recherche aus. Wenn wir nur Tempo priorisieren, entsteht der Eindruck, GPT‑5 sei kaum besser als der Vorgänger. Wie GPT‑5 die Bedienung ändert OpenAI baut die Hürde zwar ab. In ChatGPT können wir jetzt zwischen Auto, Fast und Thinking wählen. Auto soll smart zwischen Tempo und Tiefe routen. Außerdem kehrten nach Nutzerprotesten frühere Favoriten wie GPT‑4o zurück. In den Einstellungen lassen sich zusätzliche Modelle aktivieren. Für Thinking gelten höhere, aber klar kommunizierte Limits pro Woche, damit Reasoning nicht sofort ausgebremst wird. Der holprige Start hatte einen Grund: Der automatische Router funktionierte zum Launch nicht sauber. Dadurch wirkte GPT‑5 in vielen Fällen „dümmer“ als 4o. OpenAI versprach, transparenter zu zeigen, welches Modell gerade antwortet, und das Routing zügig zu reparieren. Für uns zählt am Ende, dass die Wahl sichtbar ist und zuverlässig greift. Warum so viele am Potenzial vorbeigehen Ein Großteil der Nutzer will schnelle Hilfe für Alltagstasks. Das ist verständlich. Doch wer komplexe Fragen stellt, braucht Genauigkeit statt Sekundenrekorde. Studien zeigen zugleich: Viele finden Chatbots weniger nützlich als Experten. Das hat auch mit Bedienung zu tun. Wenn wir nicht bewusst in den Denkmodus schalten oder klare Arbeitsaufträge geben, verschenken wir Qualität. Praktisch heißt das: Für Programmier‑Aufgaben, knifflige Berechnungen oder mehrteilige Recherchen sollten wir Thinking wählen oder Auto explizit um gründliches Vorgehen bitten. GPT‑5 ist darauf ausgelegt, den Aufwand zu erhöhen, wenn es Sinn ergibt. Wir profitieren, wenn wir das anstoßen. Dann zeigt sich der Unterschied zu älteren Modellen deutlich, und der vermeintliche „Thud“ wird zum leisen Aha‑Moment. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    OpenAI hat GPT‑5 veröffentlicht, das zwischen schneller und gründlicher Antwortweise wählen kann.
    Die meisten Nutzer verwenden jedoch weiterhin den schnellen Modus, obwohl der Thinking-Modus deutlich bessere Ergebnisse liefert.
    Sam Altmans Daten zeigen, dass selbst Plus-Nutzer Reasoning kaum nutzen – was die Leistung von GPT‑5 unterschätzt wirken lässt.
    Wer GPT‑5 gezielt nutzt, etwa bei komplexen Aufgaben, erlebt spürbare Qualitätsunterschiede im Vergleich zu Vorgängern.
    QUELLEN
    OpenAI: Introducing GPT‑5
    OpenAI: GPT‑5 Overview
    OpenAI: GPT‑5 for Developers
    TechCrunch über GPT‑5-Rollout

  • China dominiert die Open-KI-Charts

    Ein Podest mit Open-LLM Modellen

    China dominiert die Open-KI-Charts Mit Qwen, Deepseek und Kimi-K2 führt China das Feld der Open-Modelle an. Was macht OSS von OpenAI? Kurzfassung | Andreas Becker, 14.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Im August hat die Text-Arena ihr Ranking der offenen Sprachmodelle neu sortiert – mit überraschendem Ergebnis: Modelle wie Qwen-3-235B-A22B-Instruct, GLM-4.5 und das neue gpt-oss-120b von OpenAI landen direkt im Spitzenfeld. Zum ersten Mal schaffen es alle Open-Top-10 gleichzeitig auch ins Gesamtranking der besten LLMs. Was steckt hinter diesem Leistungsschub, und welche offenen Modelle taugen wirklich etwas für den praktischen Einsatz? NEWS Qwen zieht das Tempo an Qwen-3-235B-A22B-Instruct dominiert aktuell das Open-Feld – und das liegt nicht nur an der schieren Größe. Hinter dem Modell steckt ein flexibler Mixture-of-Experts-Ansatz: 235 Milliarden Parameter insgesamt, aber nur 22 Milliarden aktiv pro Token. Dadurch lassen sich Rechenkosten einsparen, ohne auf Tiefgang beim Reasoning zu verzichten. Besonders clever: Das Modell bietet zwei Modi – „Thinking“ für komplexes Nachdenken und „Non-Thinking“ für schnelle Antworten. Spannend ist auch, wie schnell das Modell ins Ökosystem diffundiert. Anbieter wie Cerebras integrieren die aktuelle Version direkt in ihre Plattformen – inklusive Hosting. Für KI-Builder bedeutet das: Man muss kein eigenes GPU-Cluster hochziehen, um mit einem der derzeit leistungsstärksten Open-Modelle zu experimentieren. Die Hürde zwischen Benchmark und produktivem Einsatz sinkt merklich. + Quelle: lmarena Neue Namen, starkes Debüt: GLM-4.5 und gpt-oss ZhipuAI bringt mit GLM-4.5 ein Hybridmodell in Stellung, das zwischen Reasoning und Direktantworten hin- und herwechseln kann. Der Wechsel zwischen „Thinking“ und Schnelligkeit erinnert an Qwen – allerdings mit anderen Lizenzbedingungen. GLM-4.5 steht unter MIT-Lizenz und bietet auch FP8-Varianten an, was die Nutzung für eigene Produkte besonders attraktiv macht. In der Arena ist das Modell erstmals in der offenen Top-10 zu finden – und das mit bemerkenswert starker Performance. Noch überraschender ist OpenAIs gpt-oss-120b. Nach Jahren proprietärer Modelle öffnet der Marktführer wieder Gewichte – unter Apache-2.0 und mit 128k-Kontext. Die Leistung liegt nahe bei OpenAIs eigenem o4-mini, lässt sich aber auf nur einer 80-GB-GPU betreiben. Für Entwickler mit begrenzten Ressourcen ist das ein echtes Argument. Dass gpt-oss-120b sofort in die Top-10 der offenen Modelle einsteigt, zeigt: OpenAI meint es ernst mit der Wiederbelebung des Open-Gedankens. China bleibt Taktgeber bei offenen Modellen Wer aktuell in die oberen Ränge der Open-Modelle blickt, sieht einen klaren Trend: chinesische Labs geben den Takt an. Neben Qwen und GLM-4.5 überzeugt auch Moonshots Kimi-K2, ein Modell mit Agentic-Fokus und Milliarden von Parametern im MoE-Setup. Dazu kommen DeepSeek-R1 und MiniMax-M1 – Modelle, die in Benchmarks wie bei der Codegenerierung oder beim Reasoning sichtbar aufschließen. China zeigt dabei nicht nur Masse, sondern auch strategisches Gespür. Offene Lizenzen, skalierbare Hardware-Anforderungen und aggressive Releases – das alles wirkt wie ein Gegenentwurf zur bisher westlich dominierten Modelllandschaft. Für Entwickler, die nicht auf Blackbox-Systeme setzen wollen, entsteht damit eine echte Alternative. Was die Text-Arena wirklich misst – und warum das zählt Die Text-Arena verzichtet auf klassische Metriken wie MMLU oder HellaSwag. Stattdessen setzt sie auf menschliche Duelle: Zwei Antworten, ein Prompt, ein Urteil. Dieses Pairwise-Voting misst, was Modelle im Alltag leisten – also dort, wo Formulierung, Klarheit und Nutzwert zählen. Der Haken: Es ersetzt keine spezifischen Tests für einzelne Anwendungsfälle. Aber es zeigt Trends. Und der Trend ist klar: Open-Modelle sind 2025 nicht mehr nur eine Sparlösung – sie sind konkurrenzfähig. Zehn offene Systeme unter den besten fünfzig insgesamt, viele davon mit produktionsfähigen Lizenzen. Für KI-Builder bedeutet das: Wer 2025 ein Modell auswählt, sollte Open-Alternativen nicht nur mitdenken, sondern aktiv ausprobieren. Manche von uns werden überrascht sein, wie wenig Proprietary heute noch zwingend ist. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Die Text-Arena zeigt im August eine klare Dominanz offener KI-Modelle mit Qwen, GLM-4.5 und gpt-oss an der Spitze.
    Besonders OpenAI sorgt mit gpt-oss für Aufsehen, da es erstmals wieder freie Gewichte veröffentlicht.
    China positioniert sich mit Qwen, Kimi-K2 und DeepSeek als führende Kraft im Bereich offener Sprachmodelle.
    Offene Modelle sind 2025 nicht nur konkurrenzfähig, sondern auch produktionsreif – ideal für Entwicklerteams.
    QUELLEN
    Text Arena – Leaderboard (Text)
    Top 10 Open Models by Provider (X-Post)
    Introducing gpt-oss
    gpt-oss-120b & gpt-oss-20b Model Card
    Qwen3: Think Deeper, Act Faster
    zai-org/GLM-4.5 (GitHub)
    Kimi K2: Open Agentic Intelligence
    Chinese AI model Kimi K2 (Nature)

  • Claude Sonnet 4 knackt die Millionenmarke

    Claude Sonnet Infografik

    Claude Sonnet 4 knackt die Millionenmarke Was bringt der 1M-Token-Kontext für Code, Doku und Agenten – echter Boost oder nur Buzzword? Kurzfassung | Andreas Becker, 13.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Anthropic schaltet Claude Sonnet 4 auf Langstrecke: Ab sofort verarbeitet das Modell bis zu eine Million Token Kontext. Das entspricht Tausenden Seiten Text oder kompletten Code-Repositories – ohne Aufsplitten in Einzelteile. Die Beta startet auf API, Bedrock und bald auch bei Google. Klingt mächtig – doch wie viel davon lässt sich im echten Entwickleralltag tatsächlich nutzen? NEWS Von der Theorie zur Praxis: was 1M Token ermöglichen Der Vorteil eines riesigen Kontextfensters liegt auf der Hand: Statt Code, Dokumentation und Tests einzeln zu füttern, ziehen wir sie jetzt gesammelt ins Modell. Das erlaubt durchgehende Refactorings, ganzheitliche Analysen und eine stabile Übersicht über komplexe Softwarelandschaften. Besonders spannend wird es bei Migrationen, bei denen das Modell Änderungen über mehrere Services hinweg nachvollziehen kann – inklusive Abhängigkeiten, Logs und Schnittstellen. In Forschung und Dokumentenanalyse zeigt sich ähnlicher Nutzen. Wenn Paper, Anhänge und Notizen nicht mehr aufgeteilt werden müssen, bleibt der inhaltliche Zusammenhang stabil. Querbezüge, Argumentationslinien und Metainformationen lassen sich so in einem Schritt verarbeiten – ein Vorteil, den klassische 100K-Modelle bislang nicht liefern konnten. + Quelle: Anthropic – Preise für langen Kontext Verfügbarkeit, Zugang und Preisschild Der 1M-Token-Modus läuft aktuell als Beta – über die Anthropic-API und Amazon Bedrock, Google Vertex AI soll folgen. Zugang gibt es zunächst nur für höhere Nutzungstiers, etwa Tier 4 und Custom-Accounts. Ein breiterer Rollout ist geplant, bleibt aber vorerst Zukunftsmusik. Beim Pricing zieht Anthropic eine klare Linie: Bis 200K Token gelten moderate Preise, darüber wird es teurer – je nach Input- und Output-Größe sogar deutlich. Wer langfristig mit langen Prompts arbeiten will, kommt an Caching und Batch-Verarbeitung kaum vorbei. Diese Optimierungen helfen, die Kosten kalkulierbar zu halten – zumindest für Projekte mit wiederkehrender Struktur. Neue Workflows: Von Review bis Agentenspeicher Gerade in der Codeanalyse entstehen mit 1M Token neue Möglichkeiten. Das Modell kann Tests, alte Commits, Abhängigkeiten und Doku parallel verarbeiten. Für Änderungen an Datenmodellen oder kritischen Schnittstellen bedeutet das: mehr Sicherheit, weniger Trial-and-Error. Unternehmen wie Bolt.new oder iGent AI berichten von stabileren Agentensitzungen, die über Stunden oder sogar Tage hinweg kontextstabil bleiben. Wer „context-aware agents“ aufbauen will – etwa für DevOps, Compliance oder Support – profitiert massiv. Wenn API-Definitionen, Logs, Benutzerverhalten und Tool-Konfigurationen im Langzeitgedächtnis bleiben, sinkt die Fehleranfälligkeit. Das Ergebnis: Agenten, die nicht nur reagieren, sondern proaktiv mitarbeiten können. Ein Blick auf den Wettbewerb – und auf uns Mit dem Schritt auf 1 Mio. Token zieht Anthropic bei einem der zentralen Leistungsmerkmale mit OpenAI gleich. Doch während GPT-4.1 auf 1M schon länger zugreifen kann, punktet Claude jetzt mit besserer Verfügbarkeit und transparenter Preisstruktur – zumindest in der Beta. Für unseren Alltag heißt das: Weniger manuelles Chunking, mehr durchgehende Prompts. Ob das Modell wirklich smarter wird oder nur geduldiger zuhört, hängt vom Use Case ab. Wer Code, Doku oder Logs nicht mehr aufteilen muss, wird den Unterschied schnell merken. Der Kontext ist da – jetzt liegt es an uns, ihn zu nutzen. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Anthropic hat Claude Sonnet 4 mit einem Kontextfenster von 1 Mio. Token ausgestattet – genug für ganze Codebasen und Dokumentationen.
    Das ermöglicht tiefere Analysen, durchgängige Agenten-Sessions und neue Workflows für Entwickler und Forscher.
    Der Zugang startet als Public Beta über Anthropic API und Amazon Bedrock, allerdings nur für höhere Nutzungstiers.
    Mit effizientem Caching und Batch-Verarbeitung kann das Feature trotz hoher Preise echte Arbeitserleichterung bringen.
    QUELLEN
    Claude Sonnet 4 now supports 1M tokens of context
    Anthropic – Pricing
    The Verge – Anthropic’s Move in the AI Coding Wars
    Amazon Web Services – Claude 4 on Bedrock

  • GPT-5 geknackt – Forscher finden Schlupflöcher in Rekordzeit

    Einbrecher versuchen OpenAI zu erreichen

    GPT-5 geknackt – Forscher finden Schlupflöcher in Rekordzeit NeuralTrust und SPLX umgehen OpenAIs neue „Safe-Completions“ mit Storytelling-Angriffen. Wie sicher ist das Modell wirklich? Kurzfassung | Andreas Becker, 12.08.25
    gpt-image-1 | All-AI.de EINLEITUNG OpenAI bewirbt GPT-5 als sicherer, klüger und robuster. Kernstück ist das neue „Safe-Completions“-Verfahren, das statt harter Ablehnung bessere Alternativen liefern soll. Doch kaum war das Modell live, demonstrierten Sicherheitsforscher erste Jailbreaks – subtil, mehrstufig und ohne Tabuwörter. Die Angriffe werfen Fragen auf: Wie belastbar ist die Schutzarchitektur – und wie produktionsreif ist GPT-5 wirklich? NEWS Kontextvergiftung statt Gewaltprompt NeuralTrusts Security-Team zeigte, wie sich GPT-5 über unscheinbare Kontexte aus der Bahn lenken lässt. Die Methode: harmlose Eingaben mit schleichend toxischem Subtext, eingebettet in scheinbar harmlose Storytelling-Szenarien. Die eigentliche Eskalation erfolgt im Fluss der Erzählung – das Modell bleibt konsistent, aber verliert die Spur zu sicheren Antworten. Der Angriff wirkt eher wie psychologische Manipulation als klassischer Exploit. Solche Jailbreaks umgehen klassische Filtermechanismen elegant. Während GPT-5 in Einzelsätzen kontrolliert bleibt, zeigt sich, dass mehrstufige Gesprächsverläufe zu einer wachsenden Angriffsfläche führen – besonders wenn Modelle mit externen Inhalten interagieren. Die Sicherheit eines LLMs bemisst sich nicht mehr allein am Prompt, sondern an seinem Umgang mit kontinuierlichem Kontext. Unternehmenseinsatz bleibt heikel Auch SPLX meldete erfolgreiche Red-Team-Versuche. Das rohe GPT-5 sei „nahezu unbrauchbar“ für den direkten Einsatz in Unternehmen – so das Fazit. Mit Tricks wie Rollenspielen oder verschleierten Anfragen ließen sich Inhalte generieren, die gegen Nutzungsrichtlinien verstoßen. Zwar verkauft SPLX eigene Schutzmechanismen, doch andere Tests bestätigen die Einschätzung: Ohne zusätzliche Kontrolle droht Fehlverhalten – mit rechtlichen und sicherheitstechnischen Folgen. Auch bei Konkurrenzmodellen wie Grok 4, GLM-4.5 und Kimi K2 zeigen sich ähnliche Schwachstellen. Das Problem ist also nicht GPT-spezifisch, sondern ein strukturelles: Große Sprachmodelle bleiben anfällig für subtile Umgehungen, wenn sie längere Dialoge verarbeiten oder eingebettete Signale aus Dokumenten übernehmen. Der Aufwand für Jailbreaks steigt – verschwindet aber nicht. OpenAIs Antwort: Mehrschichtige Sicherheit Mit „Safe-Completions“ will OpenAI genau hier gegensteuern. Die Idee: Das Modell lehnt nicht ab, sondern bietet kontrollierte Auswege an – etwa durch Verweise auf Normen oder Handlungsschritte. Besonders das Submodell „gpt-5-thinking“ soll bei sensiblen Themen besser reagieren, ohne nutzlos zu bleiben. Die Systemkarte belegt messbare Fortschritte, betont aber auch: Es braucht ein Paket aus Trainingsmethoden und Systemmaßnahmen. Einzelmaßnahmen wie Prompt-Filter greifen bei komplexen Dialogen zu kurz. OpenAI stellt deshalb klar, dass Sicherheit im Betrieb mitgedacht werden muss – durch Überwachung ganzer Konversationen, Kontextanalyse und Red-Teaming. Die Absicherung verlagert sich zunehmend aus dem Modell in die Infrastruktur – ein Paradigmenwechsel für viele Unternehmen. Fazit ohne Illusion GPT-5 zeigt Fortschritte – keine Frage. Aber wer das Modell produktiv nutzen will, muss sich mit der Sicherheitsarchitektur dahinter beschäftigen. Jailbreaks in 24 Stunden sind kein Beweis für Versagen, sondern ein Hinweis auf die Komplexität moderner Angriffe. Vielleicht liegt die eigentliche Herausforderung inzwischen nicht mehr im Modell selbst, sondern darin, es im richtigen Rahmen einzusetzen. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Forscher von NeuralTrust und SPLX haben GPT-5 innerhalb von 24 Stunden mit mehrstufigen Storytelling-Angriffen umgangen.
    Die neuen „Safe-Completions“ sollen heikle Anfragen sicher umleiten, erwiesen sich aber als anfällig für Kontextvergiftung.
    Berichte zeigen, dass ähnliche Methoden auch bei Konkurrenzmodellen wie Grok-4 funktionieren.
    Für den sicheren Unternehmenseinsatz sind zusätzliche Schutzschichten und kontinuierliches Monitoring erforderlich.
    QUELLEN
    heise online
    Dark Reading
    The Hacker News
    OpenAI – Safe-Completions
    OpenAI – Systemkarte