Schlagwort: System

  • OpenAI macht KI-Modelle immun gegen Hacker

    Ein niedlicher Roboter mit Schutzschild

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI hat mit der IH-Challenge eine neue Trainingsmethode vorgestellt, die Sprachmodelle speziell gegen Prompt Injections und externe Manipulationen absichert.
    Durch eine strenge Befehlshierarchie lernt die KI, Systemanweisungen zu priorisieren, und löst Konflikte mit Nutzer-Prompts in 95 Prozent der Fälle richtig.
    Ein interner Test mit dem Modell GPT-5 Mini-R zeigt, dass die Abwehr gegen Jailbreaks drastisch steigt, während die logischen und mathematischen Fähigkeiten stabil bleiben.
    Gleichzeitig verweigert das trainierte System harmlose Anfragen deutlich seltener, verliert jedoch im direkten Chat-Vergleich minimal an Beliebtheit.

    OpenAI – Instruction Hierarchy Challenge

    OpenAI – The Instruction Hierarchy Paper (PDF)

    OpenAI präsentiert mit der sogenannten „IH-Challenge“ eine neue Trainingsmethode, die Sprachmodelle effektiv vor Manipulationen schützt. Ein interner Testlauf mit dem modifizierten Modell GPT-5 Mini-R zeigt, wie eine strenge Befehlshierarchie bösartige Eingaben blockiert, ohne die Leistungsfähigkeit im Alltag zu beeinträchtigen. Versteckte Befehle blockieren Sprachmodelle sind bei der Anbindung an das Internet oft anfällig für sogenannte Prompt Injections. Angreifer verstecken dabei unsichtbare Befehle in fremden Texten oder auf Webseiten. Liest die KI diese Daten ein, überschreiben die bösartigen Befehle die eigentlichen Anweisungen der Programmierer. + Quelle: OpenAI Ein typisches Szenario zeigt sich bei der Nutzung von Kalender-Schnittstellen. Sucht das Modell im Auftrag des Nutzers nach dem nächsten Termin, liefert ein manipulierter Kalendereintrag plötzlich den Text „Zugriff gewährt“ zurück. Normale Modelle übernehmen diesen Fremdtext blind und geben ihn aus. Ein mit der neuen Methode trainiertes System erkennt den Betrugsversuch hingegen sofort. Es blockiert die fehlerhafte Anweisung und hält sich strikt an das reguläre Format für Termine. Die neue Hierarchie der Anweisungen Der hohe Schutz basiert auf dem neuen Trainingsdatensatz der IH-Challenge. Dieses Prinzip bringt der KI von Grund auf bei, welche Befehle absoluten Vorrang haben. Systemvorgaben der Entwickler stehen dabei immer an oberster Stelle. Nutzer-Prompts oder Daten aus externen Quellen ordnet das Modell in der Priorität deutlich tiefer ein. Konflikte zwischen Entwickler-Regeln und Nutzer-Eingaben löst das interne Testmodell GPT-5 Mini-R nun in 95 Prozent der Fälle korrekt. Das entspricht einer starken Verbesserung von 12 Prozentpunkten im Vergleich zum unmodifizierten Basismodell. Anzeige Starke Abwehr gegen Identitätsdiebstahl Die internen Sicherheitstests belegen klare Fortschritte bei der Abwehr von gezielten Angriffen. Besonders bei Versuchen, das Modell zur Annahme einer falschen Identität zu zwingen („Impersonation“), steigt der Robustheits-Wert enorm an. Er springt von einem sehr anfälligen Wert von 0,23 auf sichere 0,90. Auch bei manuellen Angriffen durch Sicherheitsexperten zeigt sich das Testmodell widerstandsfähig. Beim menschlichen Red-Teaming klettert der Wert von 0,73 auf 0,90. Automatisierte Attacken wehrt das System mit einem Score von 0,97 nahezu perfekt ab. + Quelle: OpenAI Sicherheit auf höchstem Niveau In fast allen kritischen Sicherheitskategorien erreicht das System nun die volle Punktzahl von 1,00. Dazu gehören heikle Bereiche wie Hassrede, illegale Inhalte, Gewalt und Biologie. Das reguläre Modell lag hier zuvor noch zwischen 0,91 und 0,98. Ein bekanntes Problem stark gesicherter Modelle ist häufig eine gewisse Übervorsichtigkeit. Oft verweigern sie die Antwort auf völlig harmlose Fragen. Dieses sogenannte Overrefusal konnte OpenAI mit der neuen Trainingsmethode jedoch deutlich reduzieren. Bei der entsprechenden Metrik für fälschliche Verweigerungen steigt der Wert von 0,79 auf den Bestwert von 1,00. + Quelle: OpenAI Stabile Logik mit leichten Kompromissen Die allgemeine Intelligenz der KI leidet kaum unter den neuen, strengen Sicherheitsvorgaben. Im komplexen GPQA-Diamond-Test hält das Modell seinen hohen Wert von 0,83. Bei mathematischen Aufgaben im AIME 2024 Benchmark gibt es sogar eine minimale Steigerung von 0,93 auf 0,94. Nutzer müssen lediglich bei der allgemeinen Beliebtheit der Antworten kleine Abstriche machen. Die direkte Gewinnrate im Chat-Vergleich sinkt leicht von 0,71 auf 0,66. Der allgemeine Preference Score fällt von 0,46 auf 0,40. Das Experiment zeigt insgesamt, dass eine hohe Sicherheit bei Sprachmodellen ohne spürbare Leistungseinbußen in der Logik realisierbar ist. + Quelle: OpenAI

  • Claude Code: Anthropic veröffentlicht automatisches KI-Code-Review

    Ein KI Entwickler von Anthropic

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic hat eine neue Code-Review-Funktion für seinen Assistenten Claude Code veröffentlicht.
    Die künstliche Intelligenz analysiert Code-Änderungen auf semantischer Ebene und findet komplexe Sicherheitslücken.
    Entwickler können die Überprüfung direkt im Terminal starten oder den Prozess bei Pull Requests über GitHub automatisieren.
    Das System filtert unwichtige Warnungen heraus und schlägt direkt passenden Code zur Fehlerbehebung vor.

    Claude Code Review

    Anthropic – Making frontier cybersecurity capabilities available to defenders

    Anthropic hat eine neue Funktion für seinen Programmierassistenten Claude Code veröffentlicht, die den Code von Entwicklern automatisch auf Fehler und Sicherheitslücken prüft. Das System analysiert Änderungen direkt während der Entwicklung und schlägt selbstständig passende Korrekturen vor.

    KI als eigenständiger Code-Prüfer Bisher kontrollieren Programmierer neuen Code meist aufwendig per Hand. Das aktuelle Update für Claude Code übernimmt diese Aufgabe nun weitreichend. Die Software untersucht den Programmcode auf semantischer Ebene und erfasst den genauen Kontext der geschriebenen Zeilen. Dabei sucht das System nicht nur nach einfachen Syntaxfehlern, sondern erkennt gezielt komplexe Sicherheitsprobleme. Dazu gehören Schwachstellen wie fehlerhafte Datenbankabfragen, mangelhafte Datenverarbeitung oder unzureichende Verschlüsselungen. Die Entwickler haben die Funktion so konzipiert, dass sie sich direkt in den bestehenden Arbeitsalltag einfügt. Programmierer starten die Überprüfung ganz einfach in ihrem Terminal, bevor sie den Code freigeben. Findet die KI eine Schwachstelle, liefert sie sofort eine genaue Erklärung des Problems. Im gleichen Schritt generiert das Modell den passenden Code, um den Fehler rasch zu beheben. Anzeige Nahtlose Integration in Entwicklungsabläufe Neben der lokalen Nutzung stellt Anthropic die Neuerung auch als Open-Source-Integration für GitHub zur Verfügung. Die KI wird dadurch automatisch aktiv, sobald ein Entwickler neuen Code in das zentrale Projektarchiv hochladen möchte. Bei einem solchen Pull Request liest Claude Code die Änderungen, bewertet die potenziellen Risiken und hinterlässt konkrete Kommentare exakt an den betroffenen Code-Zeilen. Um Entwicklerteams nicht mit unwichtigen Warnungen zu überfluten, nutzt das System fortschrittliche Filter. Diese sortieren irrelevante Meldungen aus und lenken den Fokus strikt auf echte Bedrohungen. Die Prüfregeln lassen sich dabei flexibel an die spezifischen Sicherheitsstandards eines Unternehmens anpassen. Das Sprachmodell behält bei der ausführlichen Analyse den gesamten Kontext des Projekts im Speicher. Wenn Programmierer komplexe Aufgaben übergeben, arbeitet Claude Code als eigenständiger Agent im Hintergrund weiter und merkt sich den Fortschritt. Entwickler können so zeitraubende Prüfaufgaben delegieren, während die KI autonom Tests schreibt und die finalen Korrekturen validiert. Die kontinuierliche Code-Qualität bleibt auf diese Weise auch bei großen Softwareprojekten verlässlich erhalten. Anzeige

  • Phi-4-Reasoning-Vision wertet Benutzeroberflächen und Dokumente aus

    Ein Windows Logo in besonderem Style

    Nano Banana

    Kurzfassung

    Quellen

    Microsoft hat das KI-Modell Phi-4-Reasoning-Vision mit 15 Milliarden Parametern als Open-Weight-Version veröffentlicht.
    Die Software kombiniert reine Bilderkennung mit logischen Denkprozessen, um komplexe Diagramme oder Benutzeroberflächen strukturiert zu verstehen.
    Entwickler können das System auf Plattformen wie GitHub herunterladen und für ressourcenschonende, lokale Agenten-Anwendungen nutzen.

    Microsoft Research Blog – Phi-4-reasoning-vision and the lessons of training a multimodal reasoning model

    Azure AI Foundry (Model Catalog) – Phi-4-Reasoning-Vision-15B

    Microsoft hat mit Phi-4-Reasoning-Vision-15B ein neues KI-Modell veröffentlicht. Die Software kombiniert detaillierte Bilderkennung mit logischen Analysefähigkeiten und ist ab sofort als offene Open-Weight-Version für Entwickler frei zugänglich. Anzeige Bilder verstehen und logisch einordnen Bislang beschränkten sich viele kompakte KI-Modelle darauf, Objekte auf Fotos lediglich zu benennen. Das neue System mit 15 Milliarden Parametern ordnet die Bildinhalte hingegen in einen größeren Kontext ein. Es interpretiert komplexe Diagramme, eingescannte Dokumente oder die Benutzeroberfläche von Software. Die KI verbindet diese visuellen Strukturen mit Textinformationen. Darauf basierend führt sie mehrstufige logische Denkprozesse durch, das sogenannte Reasoning. So erkennt das Programm beispielsweise Veränderungen in einer Abfolge von Bildern und zieht daraus eigenständig Schlüsse. Beim Training der Software setzte Microsoft auf eine gezielte Mischung von Daten. Die Entwickler kombinierten Informationen, die logisches Denken erfordern, mit allgemeinen Trainingsdaten. Diese Vorgehensweise sorgt laut den Entwicklern für eine hohe Präzision bei der Auswertung visueller Inhalte, ohne die Effizienz zu beeinträchtigen. + Quelle: Microsoft Steuerung von Benutzeroberflächen Ein konkretes Einsatzgebiet ist die Unterstützung bei mathematischen und naturwissenschaftlichen Problemstellungen. Die Software analysiert Graphen oder verschachtelte Formeln und leitet daraus korrekte Lösungswege ab. Darüber hinaus eignet sich das Modell für Software-Agenten. Diese digitalen Assistenten können direkt auf grafischen Benutzeroberflächen von Computern oder Smartphones agieren. Ein Programm liest dabei den aktuellen Bildschirminhalt aus, versteht die Anordnung von Schaltflächen oder Textfeldern und entscheidet über den nächsten Klick. In einem Online-Shop wertet die KI beispielsweise Produktbilder und Menüs in Echtzeit aus, um selbstständig eine bestimmte Aktion durchzuführen. + Quelle: Microsoft Effizienz und offene Verfügbarkeit Trotz der umfangreichen Fähigkeiten bleibt der Rechenaufwand vergleichsweise gering. Das Modell bietet Entwicklern ein ausgewogenes Verhältnis zwischen hoher Genauigkeit und niedrigen Betriebskosten. Durch die schnelle Verarbeitung der Daten lassen sich interaktive Anwendungen mit sehr kurzen Reaktionszeiten umsetzen. Interessierte laden das System ab sofort herunter. Microsoft stellt die Dateien über die Plattformen Microsoft Foundry, Hugging Face und GitHub zur Verfügung. Dies ermöglicht eine lokale Nutzung in eigenen Projekten, ohne permanent auf teure Cloud-Anbindungen angewiesen zu sein. Entwickler integrieren die Technik so direkt und datenschutzfreundlich in ihre bestehenden Arbeitsabläufe. Anzeige

  • Telekom bringt Live-Übersetzung in Festnetz und Smartphone

    Ein Azteke telefoniert mit einem Deutschen

    Nano Banana

    Kurzfassung

    Quellen

    Die Deutsche Telekom und ElevenLabs haben den „Magenta AI Call Assistant“ vorgestellt.
    Das System integriert KI-Funktionen wie Live-Übersetzungen und Gesprächszusammenfassungen direkt in das reguläre Mobilfunknetz.
    Nutzer benötigen keine separate App, wodurch der Dienst auf jedem beliebigen Festnetz- oder Mobiltelefon funktioniert.
    Die Technologie feierte ihre Premiere auf dem MWC 2026, genaue Details zum Marktstart und zu den Kosten stehen jedoch noch aus.

    Deutsche Telekom – KI-Hilfe im Anruf: Die Intelligenz aus dem Netz

    ElevenLabs – ElevenLabs und Deutsche Telekom integrieren KI ins Telekommunikationsnetz

    Deutsche Telekom – MWC 2026: KI-Assistenz per Sprache direkt aus dem Netz

    Die Deutsche Telekom und das KI-Unternehmen ElevenLabs integrieren den neuen „Magenta AI Call Assistant“ fest in das Mobilfunknetz. Anwender nutzen dadurch Funktionen wie Echtzeit-Übersetzungen oder Gesprächszusammenfassungen bei normalen Anrufen, völlig ohne zusätzliche Apps. Intelligenz aus der Netzinfrastruktur Bisher erfordern KI-gestützte Telefonate fast immer spezielle Anwendungen oder aktuelle Smartphones mit eigener lokaler Rechenleistung. Die Telekom verlagert die KI-Funktionen nun direkt in die zentrale Netzinfrastruktur. Dieser Ansatz verändert die grundlegende Nutzbarkeit der Technologie. Da die gesamte Datenverarbeitung auf den Servern des Netzbetreibers stattfindet, steht der Dienst auf jedem beliebigen Endgerät zur Verfügung. Das schließt auch ältere Mobiltelefone ohne Internetverbindung sowie klassische Festnetztelefone ein. Anwender steuern den Assistenten einfach direkt über die Tasten des Telefons oder per Sprachbefehl während des laufenden Gesprächs. Anzeige Schnelle Übersetzung und automatisierte Zusammenfassungen ElevenLabs stellt für dieses Projekt die zugrundeliegende Sprachtechnologie bereit. Das Unternehmen entwickelt spezielle KI-Modelle, die gesprochene Sprache sehr schnell analysieren und natürlich klingende Stimmen generieren. Bei der Live-Übersetzung verarbeitet das System die Sprache des Anrufers unbemerkt im Hintergrund. Es gibt den übersetzten Text anschließend in der Zielsprache für den Gesprächspartner als synthetische Stimme aus. Herkömmliche Text-Modelle benötigen oft zu viel Zeit für die Abfolge aus Transkription, Übersetzung und erneuter Sprachausgabe. Die hier eingesetzten speziellen Audio-Modelle arbeiten deutlich effizienter und reduzieren die Verzögerung bei der Verarbeitung erheblich. Die Latenz fällt laut den Entwicklern so gering aus, dass ein normaler Dialog weiterhin problemlos möglich bleibt. Neben der Sprachbarriere adressiert das System die allgemeine Informationsverarbeitung im Alltag. Nutzer aktivieren den Assistenten bei Bedarf, um komplexe Telefonate zu protokollieren. Nach der Beendigung des Anrufs sendet die KI automatisch eine strukturierte Zusammenfassung der wichtigsten Gesprächspunkte als einfache Textnachricht an das Endgerät. Da die Audiodaten für diesen Prozess den Knotenpunkt der Telekom passieren, spielt der Datenschutz eine zentrale Rolle. Die Unternehmen betonen auf dem Mobile World Congress (MWC) 2026, dass die Verarbeitung der Gesprächsinhalte strengen europäischen Richtlinien unterliegt. Die Audiosignale fließen über eine gesicherte API zu den Servern, ohne dass Drittanbieter die Daten für ein weiteres Training ihrer Modelle speichern. Genaue Informationen zur Markteinführung und zu den geplanten Tarifen für Endkunden nennt der Konzern aktuell noch nicht. ANZEIGE – Selbst Elevenlabs ausprobieren

  • Oura Ring: Eigenes KI-Modell für die Frauengesundheit startet

    Oura Ring

    Oura

    Kurzfassung

    Quellen

    Oura hat ein eigenes KI-Sprachmodell veröffentlicht, das speziell auf die Bedürfnisse der Frauengesundheit zugeschnitten ist.
    Die neue Funktion im Oura Advisor verknüpft biometrische Messdaten des smarten Rings mit einer ärztlich geprüften Wissensdatenbank.
    Das System begleitet Anwender durch alle Lebensphasen und liefert personalisierte Antworten auf medizinische Fragen.
    Um die Privatsphäre zu schützen, verarbeitet Oura alle Eingaben auf eigenen Servern und teilt keine Daten mit externen Anbietern.

    Oura Blog: Introducing Our First Proprietary AI Model to Deliver Personalized, Clinically Grounded Women’s Health Guidance

    Oura erweitert seinen smarten Ring um ein eigens entwickeltes KI-Sprachmodell, das sich gezielt auf die Frauengesundheit konzentriert. Das System analysiert biometrische Daten und liefert fundierte Antworten auf medizinische Fragen rund um den weiblichen Zyklus. Maßgeschneiderte Antworten für den weiblichen Körper Der Hersteller integriert das neue Modell ab sofort in seine Testumgebung „Oura Labs“. Wenn Anwender den digitalen Assistenten „Oura Advisor“ über einen Prompt nach gesundheitlichen Themen fragen, greift die KI auf eine geprüfte medizinische Wissensdatenbank zurück. Ein internes Team aus Ärzten und Experten hat diese fachlichen Grundlagen zuvor kontrolliert. Das System belässt es dabei nicht bei reinem Lehrbuchwissen. Es verknüpft die medizinischen Fakten direkt mit den gemessenen Körperdaten des smarten Rings. Die KI analysiert Parameter wie Schlaftrends, Stresslevel, Herzratenvariabilität und Temperaturveränderungen der vergangenen Monate. Durch diese Kombination versteht das System die individuellen physischen Zusammenhänge deutlich besser. Es begleitet Frauen durch sämtliche Lebensphasen, von frühen Menstruationszyklen über mögliche Schwangerschaften bis hin zur Menopause. Allgemeine Open-Source-Modelle oder einfache Chatbots scheitern oft an der Komplexität der Frauengesundheit, da ihnen der genaue physiologische Kontext fehlt. Oura löst dieses Problem durch den starken Fokus auf einen einzigen medizinischen Fachbereich und die direkte Nutzung realer biometrischer Daten. Anzeige Sichere Daten und verständnisvolle Kommunikation Ein weiterer wichtiger Aspekt bei der Entwicklung war die Art der Interaktion. Das Modell ist gezielt darauf trainiert, empathisch und unterstützend zu antworten. In der klassischen Medizin werden gesundheitliche Beschwerden von Frauen häufig unterschätzt. Die neue KI bietet hier einen verständnisvollen Raum, in dem Anwender ihre Symptome objektiv einordnen können. Da Zyklus- und Schwangerschaftsdaten hochsensibel sind, setzt das Unternehmen auf strenge Privatsphäre. Das neue Sprachmodell läuft vollständig auf der eigenen Server-Infrastruktur von Oura. Der Hersteller speichert die Chat-Verläufe sicher ab und verkauft diese nicht an Dritte. Die geführten Gespräche fließen auch nicht in das Training von externen KI-Systemen ein. Die neue Funktion steht aktuell für alle interessierten Anwender bereit, erfordert jedoch eine aktive Zustimmung. Wer das spezialisierte KI-Modell ausprobieren möchte, kann es im Bereich der Oura Labs in der Smartphone-App manuell einschalten. Damit baut das Unternehmen die Funktionen seines Wearables im Bereich der digitalen Gesundheitsberatung weiter aus. Anzeige

  • Google DeepMind löst das größte Problem autonomer KI-Agenten

    Eine Zeichnung wie KI-Agenten arbeiten

    Nano Banana

    Kurzfassung

    Quellen

    Google DeepMind hat das Framework „Intelligent AI Delegation“ vorgestellt, das die sichere Aufgabenübergabe zwischen KI-Agenten regelt.
    Das System zerlegt komplexe Prompts und delegiert Teilaufgaben adaptiv an spezialisierte Modelle oder fordert menschliche Expertise an.
    Eine strikte Rechteverwaltung und kryptografische Absicherung verhindern dabei unkontrollierte Datenabflüsse im Agentic Web.
    Zusätzlich nutzt die KI ein fortschrittliches Speichermanagement, um vergangene Delegationsentscheidungen effizient wiederzuverwenden.

    arXiv (Abstract) – Intelligent AI Delegation

    arXiv (PDF) – Intelligent AI Delegation

    Forschende von Google DeepMind haben mit „Intelligent AI Delegation“ ein Konzept veröffentlicht, das die sichere Aufgabenverteilung zwischen autonomen KI-Modellen regelt. Das Framework definiert, wie ein Hauptagent komplexe Teilaufgaben an spezialisierte Subsysteme oder Menschen übergibt, ohne dabei Datenschutz- und Sicherheitsrichtlinien zu verletzen. Das Problem unkontrollierter Datenströme KI-Agenten übernehmen zunehmend mehrstufige Abläufe. Sie stoßen jedoch bei hochspezialisierten oder sicherheitskritischen Anfragen schnell an ihre Leistungsgrenzen. Bislang fehlt ein standardisiertes Vorgehen, wie solche Aufgaben innerhalb eines Netzwerks aus verschiedenen KIs übergeben werden. Geben Modelle blind Befehle oder sensible Daten an andere Systeme weiter, entstehen unkontrollierbare Sicherheitslücken. Genau hier setzt das neue Konzept an. Es beschreibt einen Prozess, bei dem ein Hauptagent einen eingehenden Prompt analysiert und in kleinere Bestandteile zerlegt. Ein Bewertungsmechanismus prüft kontinuierlich anhand der eigenen Reasoning-Kapazitäten, ob das System den Auftrag selbst ausführt oder delegiert. Dabei entscheidet die KI dynamisch, ob ein anderes Modell über eine API angesteuert wird oder ob menschliche Expertise zwingend erforderlich ist. Sobald autonome Modelle im sogenannten Agentic Web untereinander kommunizieren und Berechtigungen austauschen, steigen die Risiken für unautorisierte Systemzugriffe deutlich. Das Framework etabliert daher strikte Protokolle, die den Datenaustausch kryptografisch absichern. Der Kontext der ursprünglichen Nutzeranfrage bleibt so über den gesamten Prozess lückenlos erhalten. Anzeige Adaptive Rechteverwaltung und Speichermanagement Um die Sicherheit auf Plattformebene zu gewährleisten, integriert das System eine adaptive Steuerung der Zugriffsrechte. Ein delegierender Agent vergibt ausschließlich die minimal notwendigen Berechtigungen an ein angefordertes Subsystem, um eine exakt definierte Aktion auszuführen. Dieses Prinzip der geringsten Rechte minimiert potenzielle Fehler und verhindert unautorisierte Ausführungen innerhalb der vernetzten Infrastruktur. Neben der reinen Aufgabenverteilung spielt das Speichermanagement eine zentrale Rolle. Die Agenten greifen auf ein erweitertes Langzeitgedächtnis (Memory) zu, um frühere Delegationsentscheidungen bei ähnlichen Anfragen effizient wiederzuverwenden und so wertvolle Rechenressourcen zu sparen. Darüber hinaus verankert das Konzept feste Prüfmechanismen durch menschliche Akteure. Besonders bei ethisch heiklen Entscheidungen oder weitreichenden Datenbankzugriffen stoppt die automatische Delegation, und das System fordert aktiv ein manuelles Feedback an. Der Ansatz liefert damit eine konkrete technische Grundlage, um die Skalierung von Multi-Agenten-Systemen zuverlässig steuerbar zu halten. Anzeige

  • Manus Agents bringt persönliche KI-Assistenten direkt in die Messenger

    Ein Manus Agent wählt WhatsApp

    Nano Banana

    Kurzfassung

    Quellen

    Manus hat seinen vollwertigen KI-Assistenten „Manus Agents“ direkt in den Messenger Telegram integriert.
    Die Software verfügt über ein Langzeitgedächtnis und passt sich dem Schreibstil sowie den Vorlieben des Anwenders an.
    Über simple Text- oder Sprachnachrichten lassen sich komplexe Aufgaben wie das Erstellen von Webseiten oder Präsentationen steuern.
    Das System greift für diese Arbeitsschritte im Hintergrund nahtlos auf verknüpfte Dienste wie Google Mail, Kalender oder Notion zu.

    Manus in Ihrem Chat: Ihr persönlicher Agent, überall wo Sie sind (Manus Agents für Telegram)

    Introducing Manus Agents (X-Post von @ManusAI)

    Das KI-Unternehmen Manus integriert seine vollumfänglichen Assistenzsysteme ab sofort direkt in Messenger-Dienste. Den Anfang macht die Plattform Telegram, wo Nutzer komplexe digitale Aufgaben über ein einfaches Chatfenster an ihren persönlichen Agenten delegieren. Voller Funktionsumfang im Messenger Der Dienst namens „Manus Agents“ bringt die kompletten Fähigkeiten der KI in die Chat-App. Das System agiert dabei nicht nur als simpler Chatbot, der auf den aktuellsten Befehlt reagiert. Manus Agents nutzt eine durchgehende Speicherung der Sitzungsdaten. Dadurch analysiert die Software den Kontext und plant eigenständig mehrstufige Arbeitsschritte im Hintergrund. Anwender können per Textnachricht Präsentationen erstellen, Webseiten programmieren oder Bilder generieren lassen. Die KI greift für diese Aufgabenstellungen direkt auf externe Programme zu. Nutzer verknüpfen dafür beispielsweise Google Mail, Kalender oder Notion. Ein zentraler Bestandteil der Neuerung ist das integrierte Langzeitgedächtnis. Der Agent merkt sich den Schreibstil, den Tonfall und die persönlichen Vorlieben des Anwenders. Das System wendet diese Präferenzen automatisch auf zukünftige Aufträge an.

    Twitter Beitrag – Cookies links unten aktivieren.

    Introducing Manus Agents — your personal Manus, now inside your chats. 👉🏻Long-term memory. Remembers your style, tone, and preferences.👉🏻Full Manus power. Create videos, slides, websites, images from one message.👉🏻Your tools, connected. Gmail, Calendar, Notion, and more.… pic.twitter.com/QVro5O9qP3 — Manus (@ManusAI) February 16, 2026 Einfache Einrichtung per QR-Code Die Koppelung erfordert keine technischen Vorkenntnisse. Nutzer öffnen den Bereich „Agents“ in ihrem bestehenden Manus-Konto. Dort scannen sie einen QR-Code mit dem Smartphone. Die Verbindung zu Telegram erfolgt direkt im Anschluss. Komplexe Konfigurationsdateien oder Programmierschnittstellen fallen bei diesem Vorgang komplett weg. Manus grenzt die Zugriffsrechte des Agenten strikt ab. Die KI liest ausschließlich die direkten Nachrichten in ihrem eigenen Chatverlauf. Sie hat technisch keinen Zugriff auf andere Unterhaltungen, Gruppen oder Kontakte des Nutzers. Anzeige Sprachsteuerung und Dateiverarbeitung Der Assistent verarbeitet innerhalb von Telegram unterschiedliche Medienformate. Nutzer senden direkt Sprachnachrichten, Bilder oder Textdokumente in den Chat. Die KI transkribiert Sprachansagen sofort und interpretiert die Absicht dahinter. Danach führt das System die notwendigen Aktionen ohne manuelle Dateiverwaltung aus. Die Funktion steht ab sofort allen Anwendern unabhängig von ihrem Abonnement zur Verfügung. Telegram ist laut Entwickler dabei nur der erste Schritt für diese Integration. Das Unternehmen bereitet bereits die Anbindung weiterer bekannter Plattformen vor. Damit verlagert Manus die Steuerung komplexer Software direkt in alltägliche Kommunikationsmittel.

  • Tesla bringt KI-Chatbot Grok offiziell in deutsche Fahrzeuge

    Elon Musk fährt einen Tesla autonom

    Nano Banana

    Kurzfassung

    Quellen

    Tesla schaltet den KI-Chatbot Grok durch ein neues Software-Update in europäischen Fahrzeugen frei. Das System von xAI beantwortet allgemeine Wissensfragen, hat jedoch keinen Zugriff auf sicherheitsrelevante Fahrzeugfunktionen. Für die Nutzung ist eine ständige Serververbindung erforderlich, was bereits europäische Datenschützer auf den Plan ruft.

    Tesla Support – Grok

    Golem.de – Chatbot: Tesla schaltet Grok in Deutschland frei

    Tesla schaltet ab sofort den KI-Chatbot Grok in Deutschland und weiteren europäischen Ländern für seine Fahrzeuge frei. Das aktuelle Software-Update integriert das Sprachmodell des Unternehmens xAI, verzichtet dabei jedoch auf eine weitreichende Steuerung der Fahrzeugfunktionen. Funktionsumfang mit klaren Grenzen Besitzer kompatibler Modelle erhalten den Assistenten aktuell drahtlos über das Software-Update 2025.26. Eine Fahrt in die Werkstatt entfällt für die Installation der neuen Software komplett. Fahrer stellen dem System während der Fahrt allgemeine Wissensfragen oder lassen sich aktuelle Nachrichten zusammenfassen. Die Aktivierung erfolgt dabei über eine einfache Taste am Lenkrad. Eine weitreichende Integration in die Fahrzeugsysteme fehlt bisher. Grok öffnet keine Fenster, verstellt keine Spiegel und ändert auch keine Routen im Navigationssystem auf Zuruf. Das KI-System arbeitet strikt getrennt von sicherheitsrelevanten Fahrfunktionen. Tesla vermeidet dadurch mögliche Gefahren durch fehlerhafte Eingaben des Chatbots. Die bisherige Sprachsteuerung für die Basis-Funktionen bleibt deshalb im Auto parallel erhalten. Anzeige Datenschutz und externe Server Die Ausführung der Software erfordert im Fahrzeug eine ständige Internetverbindung. Tesla nutzt für Grok eine direkte Anbindung an die Server von xAI. Eine lokale Sprachverarbeitung direkt im Auto findet nicht statt. Diese ständige Datenübertragung ruft bereits europäische Regulierer auf den Plan. Die britische Datenschutzbehörde untersucht die Einführung aktuell sehr genau. Im Fokus steht dabei vor allem die Auswertung der aufgezeichneten Spracheingaben. Nutzer müssen der Datenfreigabe vor der ersten Verwendung explizit zustimmen. Tesla bietet zwar eine Option zur Deaktivierung der Datensammlung für Trainingszwecke an. Ohne eine generelle Zustimmung zur Datenverarbeitung verweigert der Chatbot allerdings seinen Dienst. Unternehmensinterne Synergien Tesla-Chef Elon Musk verknüpft mit diesem Ausbau zwei seiner Unternehmen. Das Start-up xAI erhält durch die große Fahrzeugflotte Millionen potenzielle Nutzer. Die gewonnenen Daten helfen dem Unternehmen bei der Verbesserung zukünftiger Modelle. Gleichzeitig wertet der Autohersteller sein eigenes Infotainment-System auf. Während andere Hersteller externe Assistenten wie ChatGPT integrieren, wählt Tesla einen vollständig eigenen Weg. Die kommenden Monate zeigen nun die tatsächliche Zuverlässigkeit von Grok im automobilen Alltag.

  • Qwen3.5 von Alibaba: Gigantisches Sprachmodell für lokale KI-Agenten

    Ein KI-Agenten-Bär programmiert

    Nano Banana

    Kurzfassung

    Quellen

    Alibaba hat mit Qwen3.5-397B-A17B ein gewaltiges Open-Weight-Modell für autonome KI-Agenten veröffentlicht.
    Die Software verarbeitet Texte, Bilder und hochauflösende Videos nativ in einem einzigen neuronalen Netz.
    Dank der effizienten Mixture-of-Experts-Architektur bleiben die reinen Rechenanforderungen während der Texterstellung im Rahmen.
    In ersten Benchmarks schließt das lizenzfreie System eindrucksvoll zu führenden geschlossenen Modellen auf.

    Offizieller Blog: Qwen3.5: Towards Native Multimodal Agents

    GitHub Qwen3.5

    Alibaba veröffentlicht Qwen3.5: Erstes Open-Weight-Modell mit Fokus auf KI-Agenten Alibaba hat mit Qwen3.5-397B-A17B das erste Open-Weight-Modell der neuen Generation unter der Apache-2.0-Lizenz veröffentlicht. Das multimodale Sprachmodell zielt speziell auf den Einsatz als autonomer KI-Agent ab und verarbeitet Text sowie Medien nativ. Architektur und Hardware-Bedarf Das Modell Qwen3.5-397B-A17B ist ab sofort frei verfügbar. Alibaba stellt die Gewichte unter der permissiven Apache-2.0-Lizenz im Netz bereit. Entwickler können das Open-Weight-Modell dadurch kommerziell ohne strenge Einschränkungen in eigenen Projekten nutzen. Technisch handelt es sich um ein fortschrittliches Mixture-of-Experts-Modell. Das System wählt für jede spezifische Aufgabe nur spezialisierte Teilnetze aus. Von den insgesamt 397 Milliarden Parametern sind bei einer Abfrage lediglich 17 Milliarden aktiv. Dieser Aufbau senkt den Rechenaufwand während der Texterstellung ganz erheblich. Der Speicherbedarf bleibt aufgrund der gewaltigen Gesamtgröße jedoch enorm hoch. Je nach Komprimierung (Quantisierung) belegt das Modell geschätzt 200 bis über 400 Gigabyte an Arbeits- oder Grafikspeicher. Nutzer benötigen für den lokalen Betrieb daher teure und extrem leistungsstarke Server-Hardware. In den nächsten Tagen und Wochen sollen aber auch noch deutlich kleinere Modelle erscheinen. Anzeige Native Multimodalität für Agenten Eine Besonderheit der neuen Qwen3.5-Serie ist die native Multimodalität. Das Modell verarbeitet verschiedene Datentypen direkt in einem einzigen neuronalen Netz. Dazu gehören einfache Texte, Bilder, lange Dokumente und hochauflösende Videos. Frühere KI-Systeme schalteten oft separate Modelle für die Bildverarbeitung und Textverarbeitung hintereinander. Dieser integrierte Ansatz reduziert typische Informationsverluste zwischen den einzelnen Modulen. Das System versteht den Kontext von verschachtelten Videoinhalten dadurch wesentlich präziser. Die Entwickler rücken den Einsatz als autonomen KI-Agenten stark in den Fokus. Das Modell soll künftig selbstständig im Internet recherchieren und lokale Dateien fehlerfrei analysieren. Die native Integration aller Medientypen bildet dafür die notwendige technische Basis. + Quelle: Alibaba Skalierung durch Trainingsumgebungen Alibaba zeigt in einer veröffentlichten Grafik den genauen Zusammenhang zwischen Modellleistung und Trainingsumgebungen. Die Entwickler haben die Menge an simulierten Umgebungen während des Trainings stark erhöht. Sie skalierten die Anzahl der Szenarien auf bis zu 15.000 Umgebungen. Eine Umgebung stellt dabei ein spezifisches Szenario in einem Computersystem dar. Darin trainiert das Modell konkrete Handlungen und komplexe Interaktionen mit Software. Die vorliegenden Daten belegen eine klare Leistungssteigerung bei zunehmender Anzahl dieser Trainingsszenarien. Die Modellvariante mit aktivierter Denk-Funktion erreicht bei 15.000 Umgebungen eine durchschnittliche Platzierung von 3,5. Damit schließt Qwen3.5-397B-A17B zu sehr starken proprietären Modellen wie Claude-Opus 4.5 auf. Die Standardversion ohne diese spezielle Denk-Funktion landet im direkten Vergleich auf dem siebten Rang. Sie wurde im Vorfeld mit knapp 12.000 Umgebungen umfassend trainiert. Der beobachtete Sprung verdeutlicht den positiven Effekt des zusätzlichen Rechenaufwands für die Planung. + Quelle: Alibaba Benchmarks zeigen beeindruckende Leistung Ein genauer Blick auf die Benchmark-Ergebnisse offenbart ein äußerst starkes Bild für die Nutzer. Bei der reinen Befehlsausführung im bekannten IFBench führt das neue Alibaba-Modell. Es setzt sich dort mit 76,5 Punkten an die Spitze des Testfeldes. + Quelle: Alibaba Auch bei der agentenbasierten Websuche schneidet das große Modell sehr gut ab. Im etablierten Test BrowseComp erreicht es überzeugende 78,6 Punkte. Die komplexe Dokumentenanalyse im OmniDocBench v1.5 entscheidet Qwen mit 90,8 Punkten ebenfalls eindeutig für sich. Mit dieser Punktzahl lässt es namhafte Konkurrenten wie GPT-5.2 und Claude Opus 4.5 hinter sich. In anderen Disziplinen zeigen sich nur sehr kleine, verzeihliche Rückstände auf die teure Konkurrenz. Bei komplexen Programmieraufgaben im SWE-bench Verified erreicht das Modell beachtliche 76,4 Punkte. Hier führen die geschlossenen Modelle Claude Opus 4.5 und GPT-5.2 das restliche Feld zwar an. Für ein kostenloses Open-Weight-Modell ist dieser Wert dennoch ein großer Erfolg. Ein ähnliches Bild zeigt sich beim logischen Schließen im anspruchsvollen Test GPQA Diamond. Dort liegt das System mit 88,4 Punkten nur denkbar knapp hinter dem proprietären GPT-5.2. Bei der visuellen Analyse im MMMU-Pro liefert das Sprachmodell ebenfalls extrem starke Werte. Es ordnet sich mit exzellenten 79,0 Punkten nur minimal hinter dem Platzhirsch Gemini 3 Pro ein. Die Entwickler liefern mit dem Release ein beeindruckend starkes Gesamtpaket für den lokalen Agenten-Einsatz. Anzeige

  • Durchbruch bei OpenAI: GPT-5.2 berechnet neue Formel für die theoretische Physik

    Ein Beweis in der Physik

    Nano Banana

    Kurzfassung

    Quellen

    Das KI-Modell GPT-5.2 von OpenAI hat eine bisher unbekannte mathematische Formel im Bereich der theoretischen Physik hergeleitet.
    In einer mehrstündigen Berechnung widerlegte das System die Annahme, dass bestimmte Streuamplituden von Gluonen unter allen Bedingungen null ergeben.
    Unabhängige Forscher haben die neu generierte Gleichung für den sogenannten „half-collinear“-Grenzwert mittlerweile formal verifiziert.
    Das Resultat belegt die wachsenden analytischen Fähigkeiten aktueller Sprachmodelle beim Einsatz in der akademischen Grundlagenforschung.

    GPT‑5.2 derives a new result in theoretical physics (OpenAI)

    Single-minus gluon tree amplitudes are nonzero (arXiv Abstract)

    Das KI-Modell GPT-5.2 von OpenAI hat eine bislang unbekannte mathematische Formel in der theoretischen Physik hergeleitet. Entgegen bisheriger wissenschaftlicher Annahmen liefert das System den Nachweis, dass bestimmte Gluon-Interaktionen in einem spezifischen Grenzwert nicht null betragen. Korrektur einer etablierten Annahme Das Sprachmodell analysierte laut einem aktuellen Artikel auf arXiv das Verhalten von Gluonen. Diese Elementarteilchen vermitteln die starke Wechselwirkung und halten Quarks in Atomkernen zusammen. Forscher gingen im physikalischen Standardmodell bislang davon aus, dass die Wahrscheinlichkeit für bestimmte Streuprozesse stets null ergibt. In einer zwölf Stunden langen Rechenphase prüfte GPT-5.2 diese sogenannten „Single-minus“-Tree-Amplituden. Das System ermittelte für den spezifischen „half-collinear“-Grenzwert ein stark abweichendes Resultat. Es leitete auf dieser Basis eigenständig eine völlig neue mathematische Formel ab. Die generierte Gleichung beschreibt einen eindeutig von null verschiedenen Wert für diesen Teilchenzustand. Im unmittelbaren Anschluss untersuchten unabhängige theoretische Physiker den computergenerierten Lösungsweg. Sie konnten die Richtigkeit der Formel durch etablierte mathematische Methoden formal beweisen. Anzeige Konkreter Nutzen für die Forschung Die exakte Berechnung solcher komplexen Streuamplituden ist für Experimente in der Hochenergiephysik von sehr großer Bedeutung. Wissenschaftler benötigen diese präzisen theoretischen Vorhersagen für den späteren Abgleich in der Praxis. Nur so lassen sich die enormen Datenmengen aus Teilchenbeschleunigern wie dem Large Hadron Collider (LHC) korrekt auswerten. Dass ein neuronales Netz in diesem hochspezialisierten Fachgebiet eine fehlerfreie Näherungsformel entdeckt, belegt die erweiterten analytischen Fähigkeiten der Software. Das Modell verbrachte laut den Entwicklern einen halben Tag nur mit dem systematischen Durchdenken des mathematischen Problems. OpenAI positioniert GPT-5.2 mit diesem Resultat deutlich als Assistenzsystem für die akademische Grundlagenforschung. In der Praxis muss sich allerdings erst zeigen, ob Modelle wie GPT-5.2 solche Leistungen verlässlich wiederholen können. Besonders bei völlig unerforschten physikalischen Vorgängen stehen derartige Nachweise noch komplett aus. Die nun verifizierte Entdeckung markiert ungeachtet dieser Einschränkungen einen validen Fortschritt bei der computergestützten Herleitung physikalischer Gesetzmäßigkeiten.