Schlagwort: Nutzer

  • Darum streikt ChatGPT auf dem Mac im Mai

    Ein OpenAI Symbol auf dem Mac

    Nano Banana

    Kurzfassung

    Quellen

    7. Zusammenfassung (TL;DR)
    OpenAI zwingt Nutzer von macOS-Apps wie ChatGPT Desktop zu einem Update, da Entwickler-Zertifikate potenziell gefährdet waren.
    Ein automatisierter Workflow hatte zuvor eine manipulierte Version der Bibliothek Axios heruntergeladen, die Teil eines großen Hackerangriffs war.
    Es gibt keine Hinweise auf gestohlene Nutzerdaten oder kompromittierte KI-Modelle.
    Wer das Update nicht bis zum 8. Mai 2026 installiert, kann die Apps unter macOS nicht mehr nutzen.

    OpenAI: Our response to the Axios developer tool compromise

    X: OpenAI – offizieller X-Post zum Vorfall

    Axios: OpenAI flags software supply chain scare

    OpenAI reagiert auf einen weitreichenden Supply-Chain-Angriff auf die Bibliothek Axios und tauscht vorsorglich wichtige Sicherheitszertifikate aus. Nutzer von macOS-Anwendungen wie ChatGPT Desktop müssen ihre Software daher zwingend auf die neuesten Versionen aktualisieren. Gefahr durch kompromittierte Signatur-Schlüssel Am 31. März 2026 geriet die populäre Entwickler-Bibliothek Axios ins Visier eines groß angelegten Hackerangriffs. Google-Sicherheitsexperten ordnen diesen Vorfall nordkoreanischen Akteuren zu. Auch OpenAI blieb von den globalen Auswirkungen nicht verschont. Ein automatisierter Workflow des Unternehmens lud versehentlich eine schadhafte Axios-Version herunter. Dieser spezifische Prozess hatte direkten Zugriff auf sensible Zertifikate, welche OpenAI für die Signierung von macOS-Apps verwendet. Mit solchen Schlüsseln verifiziert Apple die Echtheit einer Software. Eine erfolgreiche Entwendung hätte es Angreifern theoretisch ermöglicht, eigene Schadsoftware als legitime App zu tarnen. Interne Analysen zeigen jedoch, dass die Angreifer das kryptografische Material aufgrund von Timing-Faktoren nicht abgreifen konnten. OpenAI betont zudem, dass weder Nutzerdaten abflossen noch die eigenen KI-Modelle oder internen Systeme kompromittiert wurden.

    Twitter Beitrag – Cookies links unten aktivieren.

    We recently identified a security issue involving the third-party developer library Axios that was part of a broader industry incident. We found no evidence that OpenAI user data was accessed, that our systems were compromised, or that our software was altered. Out of an…— OpenAI (@OpenAI) April 11, 2026 Technische Ursache bei GitHub Actions Der Ursprung des Problems bei OpenAI lag in einer technischen Unschärfe im Code-Management. Ein GitHub-Actions-Workflow nutzte sogenannte »Floating Tags« anstelle von fest definierten Commit-Hashes. Dadurch zog das System automatisch die manipulierte Axios-Version 1.14.1, ohne eine Mindestwartezeit für neue Pakete zu erzwingen. Das Entwicklerteam hat diese Fehlkonfiguration inzwischen vollständig behoben. Alle betroffenen macOS-Anwendungen signiert das Unternehmen ab sofort mit komplett neuen Schlüsseln. Apple blockiert künftig jede Notarisierung von Software, die noch das alte Zertifikat trägt. Anzeige Klare Frist für das Software-Update Nutzer haben nun ein festgelegtes Zeitfenster, um auf die abgesicherten Builds zu wechseln. Bis zum 8. Mai 2026 gewährt OpenAI eine Übergangsfrist. Danach verliert das alte Zertifikat seine endgültige Gültigkeit. Ältere App-Versionen erhalten keine Updates mehr und starten unter macOS blockiert durch Systemvorgaben nicht mehr. Zu den ersten sicheren Versionen gehören ChatGPT Desktop 1.2026.051 sowie die Codex App 26.406.40811. Auch Anwender von Codex CLI ab Version 0.119.0 und Atlas ab 1.2026.84.2 arbeiten sicher. Das Update lässt sich reibungslos über die integrierte Aktualisierungsfunktion der jeweiligen Programme anstoßen.

  • Claude Cowork: Anthropics agentisches KI-System für Nicht-Entwickler startet offiziell

    Anthropics KI-Assistent Claude Cowork ist jetzt für alle zahlenden Nutzer verfügbar mit neuen Unternehmenskontrollen und Zoom-Integration.

    Der Artikel Claude Cowork: Anthropics agentisches KI-System für Nicht-Entwickler startet offiziell erschien zuerst auf The Decoder.

  • Ja-Sager-Chatbots und KI-Schleimerei: Selbst rationale Nutzer können in Wahnspiralen geraten

    KI-Chatbots neigen dazu, ihren Nutzern nach dem Mund zu reden. Eine Studie des MIT und der University of Washington zeigt, dass diese Schmeichelei selbst unter simulierten optimalen Bedingungen zu gefährlichen falschen Überzeugungen führen kann. Auch faktentreue Bots und aufgeklärte Nutzer lösen das Problem nicht vollständig.

    Der Artikel Ja-Sager-Chatbots und KI-Schleimerei: Selbst rationale Nutzer können in Wahnspiralen geraten erschien zuerst auf The Decoder.

  • Princeton University: Kleine KI-Modelle sind die Zukunft

    großes Modell gegen viele kleine Modelle

    Nano Banana

    Kurzfassung

    Quellen

    Forscher der Princeton University fordern ein Ende des Trainings immer größerer KI-Modelle zur Erreichung einer AGI.
    Der aktuelle Ansatz stößt an physikalische Grenzen und treibt die Kosten für echtes logisches Denken rasant in die Höhe.
    Als Lösung präsentieren sie das Konzept der Domain-Specific Superintelligence, bei dem ein Netzwerk aus kleinen, spezialisierten Experten zusammenarbeitet.
    Dieser Aufbau reduziert den Energieverbrauch drastisch und ermöglicht die lokale Datenverarbeitung direkt auf dem Endgerät der Nutzer.

    arXiv: An Alternative Trajectory for Generative AI

    X: Diskussion zum Princeton-Forschungsbericht

    Forscher der Princeton University stellen den aktuellen Kurs der KI-Entwicklung infrage. In einem neuen Forschungsbericht argumentieren sie, dass immer größere, generalistische KI-Modelle an physikalische und wirtschaftliche Grenzen stoßen. Stattdessen fordern die Wissenschaftler ein Netzwerk aus hochspezialisierten Experten. Der Irrweg der großen Monolithen Bisher setzen Entwickler auf das Prinzip »Bigger is better«. Sie trainieren gigantische KI-Modelle mit sämtlichen verfügbaren Daten des Internets. Das Ziel bleibt eine künstliche allgemeine Intelligenz (AGI). Dieser Ansatz verursacht jedoch enorme Probleme. Rechenzentren verbrauchen extrem viel Strom und Wasser. Besonders die neuen Reasoning-Fähigkeiten vervielfachen die Kosten bei jeder einzelnen Anfrage. Zudem zeigen große KI-Modelle »echtes« logisches Denken fast nur bei Mathematik oder Programmierung. Dort existieren bereits feste Regeln und Strukturen. In offenen Themenbereichen scheitern die Generalisten häufig an komplexen Zusammenhängen. Anzeige Gesellschaft der Spezialisten Die Princeton-Forscher schlagen das Konzept der Domain-Specific Superintelligence (DSS) vor. Anstelle eines einzigen riesigen Alleskönners arbeitet hier eine Gesellschaft aus vielen kleinen KI-Modellen zusammen. Ein übergeordneter Agent analysiert die Anfragen der Nutzer. Er leitet die Aufgaben direkt an das passende Experten-KI-Modell weiter. Dieser Aufbau orientiert sich an menschlichen Gesellschaften. Auch dort lösen Fachleute gemeinsam komplexe Probleme. Die Arbeitsteilung reduziert die Abhängigkeit von einem einzelnen fehleranfälligen Knotenpunkt. + Quelle: https://arxiv.org/pdf/2603.14147 – Agentischer Workflow mit DSS Logik durch strukturierte Daten Um diese Spezialisten zu erschaffen, ordnen die Entwickler die Trainingsdaten völlig neu. Das Forschungsteam fordert den Aufbau von expliziten symbolischen Abstraktionen. Das bedeutet konkret den Einsatz von Wissensgraphen, Ontologien und formaler Logik. Diese Strukturen bilden die Grundlage für synthetische Lehrpläne. Kleine KI-Modelle lernen dadurch spezifische Zusammenhänge sehr präzise. Sie verinnerlichen die zugrunde liegenden Regeln ihres Fachgebiets. Die Forscher erhoffen sich daraus verlässliche und überprüfbare Ergebnisse ohne typische Halluzinationen. Effizienz und Datenschutz auf dem Endgerät Diese Aufgabentrennung löst gleich mehrere Probleme der aktuellen Industrie. Kleine KI-Modelle benötigen deutlich weniger Rechenleistung. Sie senken den Energieverbrauch drastisch und entlasten die lokalen Stromnetze. Zudem passen diese kompakten KI-Modelle direkt auf die Smartphones der Nutzer. Die Datenverarbeitung findet lokal statt, was die Privatsphäre der Anwender schützt. Die Vision der Wissenschaftler zeigt einen ressourcenschonenden Weg für die künftige Entwicklung auf. Der Fokus rückt dabei von reiner Größe hin zu strukturierter Effizienz. Anzeige

  • Schleimerische KI: Menschen bevorzugen Chatbots, die ihnen schaden

    KI-Modelle bestätigen Nutzer laut einer in Science veröffentlichten Studie fast 50 Prozent häufiger als Menschen. Drei Experimente mit über 2.400 Teilnehmern zeigen: Schon eine einzige schmeichlerische KI-Antwort senkt die Bereitschaft, sich zu entschuldigen. Trotzdem bevorzugen Nutzer genau diese Modelle.

    Der Artikel Schleimerische KI: Menschen bevorzugen Chatbots, die ihnen schaden erschien zuerst auf The Decoder.

  • OpenAIs Fahrplan für das Sora-Aus: Web-Version endet im April, API folgt im September

    A photo of a dark room with a stack of retro TVs. Each TV is small and has a bright, shining screen. The TVs are stacked on top of each other, forming a pyramid shape. The screens all display the text "SORA". The room is dimly lit, with only the TVs providing light.

    OpenAI stellt sein KI-Videotool Sora in zwei Schritten ein. Nutzer sollen ihre Daten sichern.

    Der Artikel OpenAIs Fahrplan für das Sora-Aus: Web-Version endet im April, API folgt im September erschien zuerst auf The Decoder.

  • KI-Musikgenerator Suno lässt Nutzer jetzt mit der eigenen Stimme singen

    Suno veröffentlicht Version 5.5 seines KI-Musikgenerators mit drei neuen Funktionen, die den Sound stärker an den Nutzer binden: eigene Stimme, eigenes Stilmodell und automatische Geschmackserkennung.

    Der Artikel KI-Musikgenerator Suno lässt Nutzer jetzt mit der eigenen Stimme singen erschien zuerst auf The Decoder.

  • Schutz vor Deepfakes: OpenAI verschärft Regeln für Sora

    Ein SORA ist eingesperrt

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI integriert umfassende Sicherheitsfunktionen und Wasserzeichen in sein Video-KI-Modell Sora.
    Alle generierten Clips erhalten unsichtbare C2PA-Metadaten zur eindeutigen Identifikation.
    Nutzer müssen der Erstellung ihres digitalen Abbilds zustimmen, während Prominente standardmäßig blockiert werden.
    Zusätzliche Filter und elterliche Kontrollfunktionen schützen Teenager vor ungeeigneten Inhalten.

    OpenAI: Creating with Sora safely

    OpenAI integriert weitreichende Sicherheitsfunktionen in sein Video-KI-Modell Sora. Im Fokus stehen dauerhafte digitale Wasserzeichen, strenge Kontrollen für die Erstellung von Personen sowie spezielle Schutzmaßnahmen für Jugendliche. Die neuen Regeln sollen Missbrauch gezielt eindämmen. Digitale Herkunftsnachweise für Videos Sora stattet alle generierten Clips künftig direkt bei der Erstellung mit sichtbaren und unsichtbaren Markierungen aus. Das sorgt für grundlegende Transparenz bei der Verbreitung von synthetischen Medien. Das KI-Modell bettet zudem automatisch sogenannte C2PA-Metadaten in die Mediendateien ein. Diese kryptografischen Signaturen fungieren als anerkannter Standard in der Technologiebranche, um die Herkunft von Inhalten manipulationssicher nachzuweisen. Externe Plattformen lesen diese Daten künftig aus und blenden Nutzern entsprechende Warnhinweise ein. Ergänzend dazu greift der Anbieter auf eigene Suchmechanismen für Bild und Ton zurück. Verdächtige Videos lassen sich dadurch mit hoher Präzision dem ursprünglichen Prompt und dem Verursacher zuordnen. Anzeige Kontrolle über das eigene Abbild Ein wesentlicher Teil der neuen Sicherheitsarchitektur regelt den Umgang mit echten Personen. Das System führt eine strenge Zustimmungspflicht für digitale Abbilder ein. Nutzer steuern ihre eigenen Sora-Charaktere dabei komplett selbst. Das KI-Modell generiert eine Nachbildung von Gesicht oder Stimme nur dann, wenn die betroffene Person dies im Vorfeld eindeutig autorisiert. Parallel dazu greifen Sperrlisten für Personen des öffentlichen Lebens. Das System blockiert jeden Prompt, der bekannte Persönlichkeiten anfordert, solange diese nicht die offizielle Charakter-Funktion nutzen. Ersteller überprüfen in ihrem Profil jederzeit, wer ihre Charaktere für neue Entwürfe verwendet. Sie widerrufen Zugriffsrechte mit wenigen Klicks. Ungewollte Clips lassen sich zudem sofort löschen. Strengere Filter für junge Nutzer Der Anbieter etabliert spezifische Filter, um Minderjährige vor ungeeigneten Inhalten zu bewahren. Das Modell blockiert die Ausgabe von reifen Videos für diese Zielgruppe konsequent. Ein angepasster Feed liefert Teenagern ausschließlich altersgerechtes Material. Zusätzlich verhindern die Algorithmen, dass Erwachsene über die Nachrichtenfunktion Kontakt zu Jugendlichen aufnehmen. Eltern erhalten durch verknüpfte Profile erweiterte Kontrollmöglichkeiten über das Nutzungsverhalten. Sie deaktivieren bei Bedarf den Nachrichtenempfang oder schalten die App auf einen nicht-personalisierten Feed um. Eine zusätzliche Zeitschaltuhr begrenzt das endlose Scrollen. Diese Vorgaben ergänzen die allgemeinen Richtlinien zur Inhaltsmoderation. Sie gelten ab sofort für alle Nutzer des Modells. Wir fragen uns daher, ist Sora jetzt tot?

  • KI-Adoption steigt rasant: Claude verzeichnet massives Nutzerwachstum

    Über eine Million neue Nutzer pro Tag: Anthropics Claude wächst rasant. Anthropic und OpenAI verdoppeln seit Oktober 2025 ihren Jahresumsatz.

    Der Artikel KI-Adoption steigt rasant: Claude verzeichnet massives Nutzerwachstum erschien zuerst auf The Decoder.

  • KI deckt reale Namen von anonymen Foren-Nutzern auf

    Ein Forumsbeitrag und ein Mr X

    Nano Banana

    Kurzfassung

    Quellen

    Forscher der ETH Zürich und Anthropic haben eine Methode entwickelt, mit der KI pseudonyme Internetnutzer enttarnt.
    Die Sprachmodelle analysieren dafür unstrukturierte Texte wie Forenbeiträge und ziehen logische Rückschlüsse auf Wohnort oder Hobbys.
    Dieser automatisierte Datenabgleich deckt die wahre Identität der Nutzer in wenigen Minuten auf und kostet pro Profil nur einige Dollar.
    Die Studie verdeutlicht, dass einfache Pseudonyme keinen ausreichenden Schutz mehr vor der Analysekapazität moderner Textgeneratoren bieten.

    arXiv Abstract – Large-scale online deanonymization with LLMs

    PDF – Large-scale online deanonymization with LLMs

    MATS Research – Large-scale online deanonymization with LLMs

    Forscher der ETH Zürich und des Unternehmens Anthropic haben eine Methode demonstriert, mit der künstliche Intelligenz pseudonyme Online-Profile entschlüsselt. Große Sprachmodelle analysieren dafür gewöhnliche Forenbeiträge und decken die wahre Identität der Verfasser für einen geringen Dollarbetrag vollautomatisiert auf. Anzeige Puzzle aus unstrukturierten Texten Die Technologie nutzt das sogenannte Reasoning aktueller Sprachmodelle, um logische Schlüsse aus großen Textmengen zu ziehen. Das System durchsucht Kommentarspalten nach scheinbar unbedeutenden Details. Neben direkten Hinweisen wie Alter oder Geschlecht erkennt die KI auch subtile und versteckte Informationen. Erwähnt ein Nutzer beispielsweise einen lokalen Feiertag oder beschreibt das aktuelle Wetter in einem Nebensatz, grenzt das Modell den Wohnort bereits ein. Sprachliche Eigenheiten, Nischen-Hobbys oder berufliche Anekdoten vervollständigen das Bild Schritt für Schritt. Die KI extrahiert diese unstrukturierten Datenpunkte aus hunderten Kommentaren und formt daraus ein hochpräzises Profil der Zielperson. Dieser Vorgang erforderte früher einen hohen manuellen Aufwand durch menschliche Analysten. Die LLMs übernehmen diese Detektivarbeit nun komplett eigenständig, ohne dass der Nutzer davon etwas bemerkt. + + Quelle: https://arxiv.org/pdf/2602.16800 Skalierbare Analyse über APIs Im nächsten Schritt gleichen die Modelle das erstellte Profil mit externen Informationen ab. Sie nutzen öffentliche APIs und Schnittstellen zu Suchmaschinen, um die gesammelten Merkmale mit Vereinsregistern, Zeitungsartikeln oder professionellen Netzwerken zu verknüpfen. Durch diesen automatisierten Abgleich schrumpft die Liste der potenziellen Personen schnell zusammen. Oft bleibt am Ende nur eine einzige reale Person übrig. Der finanzielle Aufwand für einen solchen Angriff fällt extrem gering aus. Die Enttarnung eines einzelnen Nutzers kostet bei der Verwendung kommerzieller Schnittstellen nur wenige Dollar. Die eigentliche Berechnung dauert dabei lediglich einige Minuten. Die Methode funktioniert mit den etablierten KI-Diensten und erfordert keine tiefergehenden Programmierkenntnisse. Das macht die Technik für eine breite Masse zugänglich. Besonders für Personen, die auf Anonymität angewiesen sind, entsteht dadurch ein konkretes Risiko. Whistleblower oder Aktivisten laufen Gefahr, durch ihre vergangenen Textbeiträge nachträglich identifiziert zu werden. Sicherheitsforscher stehen nun vor der Aufgabe, neuartige Schutzmechanismen zu entwickeln, um persönliche Daten vor diesen automatisierten Analysen zu verbergen. Anzeige