
Ein außer Kontrolle geratener KI-Agent hat bei Meta einen schwerwiegenden Sicherheitsvorfall ausgelöst, berichtet The Information.
Der Artikel Ungefragte Antwort eines KI-Agenten führt bei Meta zu Datenleck-Gefahr erschien zuerst auf The Decoder.

Nano Banana
Kurzfassung
▾
Quellen
▾
Aktuelle KI-Modelle sind nicht in der Lage, ihre internen Denkprozesse vor Überwachungssystemen zu verstecken.
Versuche, die sogenannte Chain of Thought gezielt zu manipulieren, scheitern bei komplexen Aufgaben meistens.
Diese mangelnde Kontrolle ist ein wichtiger Faktor für die KI-Sicherheit, da die echten Absichten der Systeme sichtbar bleiben.
Obwohl größere Modelle etwas mehr Kontrolle zeigen, nimmt diese Fähigkeit bei längeren Rechenprozessen wieder deutlich ab.
OpenAI – Reasoning models struggle to control their chains of thought
OpenAI – Research Paper: CoT Controllability
Künstliche Intelligenz kann ihre inneren Gedankengänge aktuell nicht vor Überwachungssystemen verstecken. Neue Untersuchungen zeigen, dass sogenannte Reasoning-Modelle noch nicht in der Lage sind, ihre Zwischenschritte gezielt zu verschleiern, was ein wichtiger Pluspunkt für die KI-Sicherheit ist. Warum mangelnde Kontrolle ein Vorteil ist Moderne KI-Systeme lösen komplexe Aufgaben zunehmend über eine „Chain of Thought“. Bei diesem Ansatz generiert das Modell schrittweise logische Zwischenschritte, bevor es die finale Antwort ausgibt. Diese internen Denkprozesse sind ein wichtiges Signal für Entwickler, um die Sicherheit und die tatsächlichen Absichten eines Systems zu bewerten. Reasoning-Modelle verarbeiten Eingaben anders als klassische Sprachmodelle. Sie nehmen sich Zeit zum Rechnen und Planen. Genau dieser Raum für interne Überlegungen birgt theoretisch die Gefahr, dass die KI unerwünschte Aktionen plant, ohne dass der Nutzer es merkt. Die aktuellen Ergebnisse zeigen jedoch, dass die Kontrollinstanzen intakt sind. In Tests wurde versucht, die KI anzuweisen, den eigenen Denkprozess zu verbergen. Die Modelle sollten beispielsweise bestimmte Schlüsselwörter in ihren Zwischenschritten vermeiden oder den Text nur in Kleinbuchstaben verfassen. Das Ziel war es, automatisierte Überwachungssysteme auszutricksen. Die Algorithmen scheiterten größtenteils an diesen strikten Vorgaben. Sie können ihr sichtbares Endergebnis für den Nutzer zwar problemlos anpassen, ihre verborgenen Gedankengänge verraten aber weiterhin die echten Lösungswege. Für Sicherheitsmechanismen ist das eine sehr positive Nachricht. Sie können riskante oder fehlerhafte Planungen weiterhin zuverlässig und frühzeitig erkennen. Anzeige Die Rolle der Modellgröße Mit wachsender Größe und Leistung der Modelle steigt jedoch auch ihre Fähigkeit, den eigenen Denkprozess zu steuern. Umfangreichere Architekturen zeigen bereits erste Ansätze, solche Verschleierungstaktiken erfolgreich umzusetzen. Dieser Effekt schwächt sich allerdings messbar ab, sobald die KI längere und komplexere Denkaufgaben lösen muss. Wenn das Modell über viele Schritte hinweg argumentiert, verliert es die Kontrolle über die gezielte Manipulation seiner Zwischenschritte. Auch zusätzliches nachträgliches Training verringert diese Fähigkeit wieder deutlich. Die Überwachbarkeit der Systeme bleibt unter diesen realen Bedingungen somit weitgehend erhalten. Gegenwärtig stellt die theoretische Möglichkeit der Modelle, ihre Gedanken zu verbergen, noch kein drängendes Risiko dar. Da die künstliche Intelligenz jedoch stetig komplexer wird, bleiben kontinuierliche und angepasste Überprüfungen der internen Denkprozesse auch in Zukunft zwingend notwendig.

Elon Musks Machtfantasien waren schon vor rund zehn Jahren extrem. Schon damals wollte er, dass seine Kinder die Kontrolle über mächtige KI-Systeme erben. Dazu passt seine Überzeugung, dass vor allem „kluge“ Menschen mehr Kinder bekommen sollten.
Der Artikel Elon Musk wollte laut OpenAI Kontrolle über menschenähnliche KI an seine Kinder vererben erschien zuerst auf The Decoder.

Der Saugroboter-Pionier iRobot hat Insolvenz angemeldet und plant, die Kontrolle an seinen chinesischen Hauptlieferanten Shenzhen PICEA Robotics zu übergeben.
Der Artikel iRobot meldet Insolvenz an und geht an chinesischen Zulieferer erschien zuerst auf The Decoder.

OpenAI beendet eine weitreichende Umstrukturierung. Eine Stiftung übernimmt die Kontrolle über das Unternehmensgeschäft, Microsoft erhält eine Beteiligung von fast einem Drittel.
Der Artikel OpenAI stellt sich neu auf: Stiftung kontrolliert Milliardenkonzern, Microsoft größter Partner erschien zuerst auf THE-DECODER.de.

Die niederländische Regierung übernimmt die Kontrolle über das Chipunternehmen Nexperia. Der Schritt markiert eine neue Eskalationsstufe im westlich-chinesischen Technologiekonflikt.
Der Artikel Niederlande entziehen chinesischem Eigentümer Kontrolle über europäischen Chiphersteller erschien zuerst auf THE-DECODER.de.

Google gibt Entwickler:innen mehr Kontrolle über seinen KI-Coding-Agenten Jules. Mit einem neuen Terminal-Interface und API-Zugang soll sich das Tool besser in bestehende Workflows integrieren lassen.
Der Artikel Google erweitert Coding-Agenten Jules um Kommandozeile und API-Zugang erschien zuerst auf THE-DECODER.de.

DeepL startet KI-Agent für Unternehmen – Beta läuft jetzt Recherchieren, prüfen, veröffentlichen – ersetzt der neue Agent bald ganze Teams? Kurzfassung | Andreas Becker, 03.09.25
gpt-image-1 | All-AI.de EINLEITUNG DeepL hat einen eigenen KI-Agenten vorgestellt, der Unternehmen bei alltäglichen Aufgaben entlasten soll. Die Software richtet sich an Teams in Bereichen wie Finanzen, Marketing oder Support und läuft zunächst als Beta-Version im DeepL AI Labs. Der Agent arbeitet innerhalb der digitalen Arbeitsumgebung eines Nutzers und übernimmt dort eigenständig wiederkehrende Aufgaben. Der Fokus liegt auf Sprachverständnis, Sicherheit und nahtloser Integration in bestehende Prozesse. NEWS Autonom und sprachstark Der neue DeepL Agent lässt sich mit natürlichen Spracheingaben steuern und erledigt daraufhin komplette Arbeitsschritte selbstständig. Er interagiert direkt mit den vorhandenen Anwendungen eines Unternehmens – etwa durch das Steuern von Browser, Tastatur und Maus. Dabei soll er nicht nur Übersetzungen übernehmen, sondern beispielsweise auch Vertriebsdaten analysieren oder Rechnungen automatisch bearbeiten. DeepL hebt das tiefe Sprachverständnis und die Lernfähigkeit des Systems hervor. Mit jeder Interaktion soll der Agent besser werden und sich an individuelle Arbeitsweisen anpassen. Ziel ist es, repetitive Wissensarbeit so zu automatisieren, dass Teams mehr Zeit für anspruchsvollere Aufgaben gewinnen.
Kontrolle bleibt beim Menschen Sicherheit und Kontrolle stehen laut DeepL im Vordergrund. Unternehmen können den Agenten jederzeit überwachen, Aufgaben pausieren oder manuell eingreifen. Auch eine verpflichtende Freigabe durch Mitarbeitende ist möglich. So behalten nicht nur einzelne Nutzer, sondern auch Führungskräfte und IT-Abteilungen jederzeit die Kontrolle über laufende Prozesse. Da der Agent vollständig innerhalb der Nutzerumgebung agiert und keine externen Cloudsysteme nutzt, sollen Datenschutz und IT-Sicherheit gewahrt bleiben. Die Kölner Entwickler setzen auf die gleichen Standards, die bereits bei ihren Sprachtools wie dem Übersetzer und DeepL Write zum Einsatz kommen. Ausblick und Bedeutung Noch befindet sich der DeepL Agent in der Testphase, erste Unternehmen erproben das System bereits. In den kommenden Monaten soll der Dienst breiter ausgerollt werden. DeepL zählt nach eigenen Angaben über 200.000 Geschäftskunden weltweit und will mit dem neuen Angebot seine Position im Bereich KI-gestützter Unternehmenslösungen weiter ausbauen. Mit dem Schritt betritt das Unternehmen ein wachsendes Feld: Immer mehr Anbieter arbeiten an KI-Agenten, die nicht nur antworten, sondern aktiv in Software eingreifen können. DeepL setzt dabei auf seine Stärke im Sprachbereich und ein Sicherheitskonzept, das speziell auf den Unternehmenseinsatz ausgelegt ist. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
DeepL startet mit dem „DeepL Agent“ eine Beta für einen autonomen KI-Assistenten, der Büroaufgaben automatisiert.
Der Agent führt eigenständig Aufgaben aus, steuert Software per virtueller Eingabe und passt sich an Nutzerverhalten an.
Unternehmen erhalten umfassende Kontrolle durch Überwachung, Freigaben und Admin-Zugriff.
Der Fokus liegt klar auf Business-Anwendungen mit besonderem Augenmerk auf Sicherheit und Skalierbarkeit.
QUELLEN
DeepL AI Labs – Produktseite
PR Newswire – Pressemitteilung
heise online – Bericht zum Start
DIE ZEIT – dpa-Meldung
Techzine – Marktanalyse
watson – Marktstart DeepL Agent

Potsdam warnt: Autonome Waffen müssen verboten werden Mit Verweis auf Hiroshima und moderne Kriege fordern Forscher klare Regeln. Kommt jetzt ein echter Wendepunkt in der KI-Rüstung? Kurzfassung | Andreas Becker, 18.08.25
gpt-image-1 | All-AI.de EINLEITUNG 80 Jahre nach Hiroshima, Nagasaki und der Potsdamer Konferenz warnt ein neuer Aufruf aus Potsdam vor einer anderen tödlichen Bedrohung: autonomen Waffensystemen. Wissenschaftler fordern ein weltweites Verbot, bevor Maschinen ohne menschliche Kontrolle auf dem Schlachtfeld entscheiden. Doch während Diplomaten verhandeln, schreitet die Technik längst voran. Bleibt noch Zeit, gegenzusteuern? NEWS Warnung mit historischem Nachhall Der neue Potsdamer Appell erinnert an das berühmte Russell–Einstein-Manifest von 1955. Auch damals schlugen Wissenschaftler Alarm – wegen der Atomwaffen. Heute richtet sich der Blick auf autonome Waffen, die mithilfe Künstlicher Intelligenz selbstständig Ziele erkennen und angreifen können. Die Unterzeichner – renommierte Forscher, Informatiker und Friedensexperten – fordern: Waffen dürfen niemals ohne sinnvolle menschliche Kontrolle eingesetzt werden. Im Zentrum steht nicht nur die technische, sondern vor allem die ethische Frage: Darf eine Maschine über Leben und Tod entscheiden? In aktuellen Konflikten wie in der Ukraine oder im Nahen Osten kommen bereits teilautonome Drohnen und sogenannte Loitering Munition zum Einsatz. Kritiker warnen, dass diese Entwicklung zur schleichenden Entmenschlichung des Krieges führen könnte. Deutschland im diplomatischen Spagat Der Appell richtet sich ausdrücklich auch an die Bundesregierung. Im Koalitionsvertrag steht bereits, dass sich Deutschland für ein Verbot vollautonomer Waffensysteme einsetzen will. Doch die Realität ist kompliziert. In Genf wird seit Jahren im Rahmen der UN-Konvention über bestimmte konventionelle Waffen (CCW) verhandelt – ohne greifbares Ergebnis. Mächtige Staaten blockieren verbindliche Regeln, auch weil sie eigene Programme vorantreiben. Trotzdem wächst der internationale Druck. 125 Staaten haben sich auf Leitlinien zur menschlichen Kontrolle geeinigt. UN-Generalsekretär Guterres drängt auf ein vollständiges Verbot bis spätestens 2026. Deutschland könnte dabei eine Schlüsselrolle spielen – als Brückenbauer zwischen skeptischen Großmächten und den vielen Staaten, die ein Verbot fordern. Technik überholt Politik Während die diplomatischen Rädchen langsam drehen, macht die Technik große Sprünge. Autonome Navigationssysteme, automatische Zielverfolgung und KI-gestützte Entscheidungsprozesse sind längst Realität. Besonders gefährlich wird es, wenn all diese Komponenten zusammenwirken – und der Mensch aus der Entscheidungskette verschwindet. Genau das will der Potsdamer Appell verhindern. Er fordert strenge technische Standards, klare rechtliche Regeln und vor allem eines: dass der Mensch am Ende immer die Kontrolle behält. Denn wer einmal die Schwelle zur vollständigen Autonomie überschreitet, könnte sie nie wieder zurückbauen. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
Ein breiter Appell von Wissenschaftlern fordert ein weltweites Verbot autonomer Waffen und pocht auf menschliche Kontrolle über Waffensysteme.
Deutschland spielt eine aktive Rolle und will bei Regulierung und Verbot vorangehen, während internationale Verhandlungen noch stocken.
Gleichzeitig schreitet der Einsatz teilautonomer Waffen in aktuellen Kriegen voran – der Appell mahnt zur schnellen Regulierung.
Gefordert werden klare Regeln, technische Begrenzungen und rechtliche Haftung, bevor tödliche KI außer Kontrolle gerät.
QUELLEN
Telepolis
Potsdam Call
Reuters
UNODA

OpenAI gibt Nutzer:innen von ChatGPT mehr Kontrolle über GPT-5: Drei manuelle Betriebsmodi, neue Modellschalter und die Rückkehr von GPT-4o deuten auf eine Abkehr vom bisherigen Routing-Modell hin.
Der Artikel OpenAI rudert bei Routing zurück: GPT-5-Modelle jetzt zur direkten Auswahl erschien zuerst auf THE-DECODER.de.