Schlagwort: Framework

  • KI-Modelle schreiben Roboter-Code fast so gut wie Menschen, aber nur mit Stützrädern

    Ein neues Framework von Nvidia, UC Berkeley und Stanford untersucht systematisch, wie gut KI-Modelle Roboter per Code steuern können. Das Ergebnis: Ohne menschliche Abstraktionen scheitern selbst die besten Modelle, doch mit gezielter Laufzeit-Skalierung schließt sich die Lücke.

    Der Artikel KI-Modelle schreiben Roboter-Code fast so gut wie Menschen, aber nur mit Stützrädern erschien zuerst auf The Decoder.

  • KI-Agent „MetaClaw“ checkt erst deinen Google-Kalender, bevor er trainiert

    Forscher aus vier US-Universitäten stellen ein Framework vor, das KI-Agenten im laufenden Betrieb verbessert. Dafür nutzt es den Google-Kalender des Nutzers.

    Der Artikel KI-Agent „MetaClaw“ checkt erst deinen Google-Kalender, bevor er trainiert erschien zuerst auf The Decoder.

  • Harvard-Studie: So werden KI-Modelle dauerhaft kreativ

    Ein kreatives Schaubild

    Nano Banana

    Kurzfassung

    Quellen

    Künstliche Intelligenz verfällt bei längeren Texten oft in einen sehr monotonen und vorhersehbaren Stil.
    Forscher der Harvard University haben nun ein neues Framework für dauerhafte Kreativität und Vielfalt entwickelt.
    Der Ansatz greift direkt in die Verarbeitung der Embeddings ein und verhindert den Verlust an Varianz.
    Die Methode erhöht die Halluzination der Modelle nicht und lässt sich auf Open Source Systeme übertragen.

    X (Twitter) – Ethan Mollick Statement

    Harvard University – Project QUEST

    Harvard University – Inducing sustained creativity and diversity in LLMs

    Harvard University – Supplementary Material

    KI-Modelle schreiben oft vorhersehbare und gleichförmige Texte. Eine aktuelle Studie der Harvard University zeigt nun einen Weg auf, wie Sprachmodelle dauerhaft kreative und vielfältige Antworten generieren. Das Team um den Forscher Gary King hat dafür ein neues Framework entwickelt. Das Problem der schwindenden Vielfalt Textgeneratoren verfallen bei längeren Aufgaben schnell in einen monotonen Durchschnitt, den Forscher als Homogenisierung bezeichnen. Nutzer versuchen oft, durch aufwendiges Prompting gegenzusteuern. Die KI-Modelle ignorieren diese spezifischen Vorgaben jedoch häufig nach wenigen Sätzen wieder. Das führt zu vorhersehbaren Mustern im Text. Das Harvard-Projekt QUEST analysierte dieses Verhalten im Detail. Die Wissenschaftler erkannten, dass aktuelle Architekturen fast immer den sichersten mathematischen Pfad wählen. Dadurch geht jede Varianz verloren. + Quelle: https://gking.harvard.edu/quest Ein Eingriff in die interne Zahlensprache Die aktuelle Publikation beschreibt eine konkrete technische Lösung für dieses Problem. Das Team greift direkt in die sogenannten Embeddings ein. Das ist die abstrakte Ebene, auf der ein KI-Modell alle Wörter in Zahlen übersetzt. Anstatt nur das nächste logische Token zu berechnen, erzwingt das Framework eine breitere Suche in diesem mathematischen Raum. Das Modell verknüpft dadurch weiter entfernte Begriffe miteinander. Diese Methode bewahrt das komplexe Reasoning der Systeme. Die Qualität der Fakten bleibt stabil, während die Textvielfalt spürbar steigt. Anzeige Training statt Chatfenster Im Alltag bedeutet das: Anwender können diese neue Kreativität nicht selbst durch cleveres Prompting erzwingen. Entwickler müssen die Modelle stattdessen zwingend mit dem neuen Ansatz trainieren. Das Framework der Forscher setzt dafür exakt beim Fine-Tuning an. Programmierer können diese Methode direkt auf bestehende Open Source Modelle und Architekturen mit Open Weights anwenden. Eine häufige Sorge bei kreativeren Ausgaben ist die Erfindung falscher Fakten. Die Studie belegt jedoch, dass das neue Verfahren die Rate der Halluzination nicht erhöht. Praktischer Nutzen für die Zukunft Auf der Plattform X betonte der Experte Ethan Mollick die praktische Bedeutung dieser Forschung. Er sieht darin einen wichtigen Schritt, um KI im Alltag vielseitiger einzusetzen. Die Entwicklung einer AGI steht zwar noch aus, aber die Fähigkeit zu dauerhafter Kreativität schließt eine spürbare Lücke in der aktuellen Technik. Die Forschungsergebnisse stehen der Entwicklergemeinde ab sofort zur Verfügung. Anzeige

  • System M: Der Weg zu echter AGI

    Ein Weg zeigt Richtung AGI

    Nano Banana

    Kurzfassung

    Quellen

    Die Forscher Yann LeCun, Emmanuel Dupoux und Jitendra Malik präsentieren ein neues theoretisches Framework für autonom lernende Maschinen.
    Das Konzept kombiniert das Lernen durch reine Beobachtung mit dem Lernen durch aktives Handeln in der physischen Umgebung.
    Eine interne Meta-Kontrolleinheit wertet die jeweilige Situation aus und wechselt völlig eigenständig zwischen den verschiedenen Lernmodi.
    Dieser biologische Ansatz soll die Grenzen aktueller KI-Systeme überwinden und langfristig einen wichtigen Baustein zur AGI liefern.

    arXiv: Why AI systems don’t learn and what to do about it

    Die führenden Forscher Yann LeCun, Emmanuel Dupoux und Jitendra Malik stellen ein innovatives Konzept für autonom lernende Maschinen vor. Ihr Ansatz orientiert sich direkt an der biologischen Kognition und soll die aktuellen Grenzen reiner Sprachmodelle überwinden. Die Hürden der reinen Textverarbeitung Aktuelle KI-Modelle stoßen bei der Verarbeitung der Welt zunehmend an ihre Leistungsgrenzen. Sie benötigen für das Training astronomische Mengen an Textdaten, die in hoher Qualität langsam knapp werden. Zudem fehlt den Systemen ein echtes Verständnis für physikalische Zusammenhänge, da sie nicht direkt mit ihrer physischen Umgebung interagieren. Diese starke Ausrichtung auf die reine Sprache verhindert ein tiefgehendes räumliches und logisches Denken. Das führt bei komplexen Aufgaben immer wieder zu einer unerwünschten Halluzination. Anzeige Biologie als Vorbild für das Framework Um diese Beschränkungen zu umgehen, schlagen die Wissenschaftler ein völlig neues Framework vor. Dieses orientiert sich direkt an den kognitiven Prozessen, mit denen Menschen und Tiere in der Natur lernen. Die Forscher brechen dabei bewusst mit bisherigen Ansätzen. Anstatt sich starr auf vorher gesammelte Datensätze zu verlassen, sollen Maschinen in Zukunft flexibel auf unvorhergesehene Situationen reagieren. Das Konzept strukturiert den komplexen Lernprozess dafür in drei eng miteinander verzahnte Systeme. + Quelle: arxiv.org/pdf/2603.15381 Beobachten, Handeln und Kontrollieren Das sogenannte System A übernimmt in diesem Aufbau das Lernen durch reine Beobachtung. Im Gegensatz dazu lernt das System B durch aktives Handeln und das direkte Ausprobieren in der jeweiligen Umgebung. Eine interne Meta-Kontrolleinheit, genannt System M, überwacht all diese Vorgänge kontinuierlich im Hintergrund. Diese übergeordnete Steuerung bewertet die aktuelle Situation und entscheidet, welcher Lernmodus gerade am besten passt. Sie schaltet dann fließend und völlig automatisch zwischen den verschiedenen Ansätzen um. Mehr Autonomie für künftige Architekturen Durch diesen biologisch inspirierten Ansatz arbeiten zukünftige Modelle in der Theorie deutlich robuster. Sie benötigen dadurch weitaus weniger externes Fine-Tuning durch menschliche Entwickler. Stattdessen passen sie sich eigenständig an dynamische Bedingungen an. Langfristig liefert das Papier der Forscher einen wichtigen theoretischen Baustein für die Entwicklung in Richtung einer echten AGI. Die Architektur zeigt einen klaren Weg auf, wie Maschinen abstrakte Konzepte der realen Welt besser greifen und verarbeiten.

  • OpenClaw-RL: Forscher wollen KI-Agenten allein durch Nutzung verbessern

    Collage aus Auge, Kabelschleifen, Waage und mechanischem Arm vor blau-gelbem Hintergrund, Symbol für KI-Feedback und Fairness.

    KI-Agenten verwerfen wertvolles Feedback aus alltäglichen Interaktionen meist ungenutzt. Das neue Framework OpenClaw-RL von Princeton-Forschern ändert das: Es nutzt Live-Signale aus Chats, Terminal-Befehlen und GUI-Aktionen für das kontinuierliche Training im laufenden Betrieb. Schon wenige Dutzend Interaktionen reichen angeblich aus, um die Interaktionen zu verbessern.

    Der Artikel OpenClaw-RL: Forscher wollen KI-Agenten allein durch Nutzung verbessern erschien zuerst auf The Decoder.

  • Google DeepMind löst das größte Problem autonomer KI-Agenten

    Eine Zeichnung wie KI-Agenten arbeiten

    Nano Banana

    Kurzfassung

    Quellen

    Google DeepMind hat das Framework „Intelligent AI Delegation“ vorgestellt, das die sichere Aufgabenübergabe zwischen KI-Agenten regelt.
    Das System zerlegt komplexe Prompts und delegiert Teilaufgaben adaptiv an spezialisierte Modelle oder fordert menschliche Expertise an.
    Eine strikte Rechteverwaltung und kryptografische Absicherung verhindern dabei unkontrollierte Datenabflüsse im Agentic Web.
    Zusätzlich nutzt die KI ein fortschrittliches Speichermanagement, um vergangene Delegationsentscheidungen effizient wiederzuverwenden.

    arXiv (Abstract) – Intelligent AI Delegation

    arXiv (PDF) – Intelligent AI Delegation

    Forschende von Google DeepMind haben mit „Intelligent AI Delegation“ ein Konzept veröffentlicht, das die sichere Aufgabenverteilung zwischen autonomen KI-Modellen regelt. Das Framework definiert, wie ein Hauptagent komplexe Teilaufgaben an spezialisierte Subsysteme oder Menschen übergibt, ohne dabei Datenschutz- und Sicherheitsrichtlinien zu verletzen. Das Problem unkontrollierter Datenströme KI-Agenten übernehmen zunehmend mehrstufige Abläufe. Sie stoßen jedoch bei hochspezialisierten oder sicherheitskritischen Anfragen schnell an ihre Leistungsgrenzen. Bislang fehlt ein standardisiertes Vorgehen, wie solche Aufgaben innerhalb eines Netzwerks aus verschiedenen KIs übergeben werden. Geben Modelle blind Befehle oder sensible Daten an andere Systeme weiter, entstehen unkontrollierbare Sicherheitslücken. Genau hier setzt das neue Konzept an. Es beschreibt einen Prozess, bei dem ein Hauptagent einen eingehenden Prompt analysiert und in kleinere Bestandteile zerlegt. Ein Bewertungsmechanismus prüft kontinuierlich anhand der eigenen Reasoning-Kapazitäten, ob das System den Auftrag selbst ausführt oder delegiert. Dabei entscheidet die KI dynamisch, ob ein anderes Modell über eine API angesteuert wird oder ob menschliche Expertise zwingend erforderlich ist. Sobald autonome Modelle im sogenannten Agentic Web untereinander kommunizieren und Berechtigungen austauschen, steigen die Risiken für unautorisierte Systemzugriffe deutlich. Das Framework etabliert daher strikte Protokolle, die den Datenaustausch kryptografisch absichern. Der Kontext der ursprünglichen Nutzeranfrage bleibt so über den gesamten Prozess lückenlos erhalten. Anzeige Adaptive Rechteverwaltung und Speichermanagement Um die Sicherheit auf Plattformebene zu gewährleisten, integriert das System eine adaptive Steuerung der Zugriffsrechte. Ein delegierender Agent vergibt ausschließlich die minimal notwendigen Berechtigungen an ein angefordertes Subsystem, um eine exakt definierte Aktion auszuführen. Dieses Prinzip der geringsten Rechte minimiert potenzielle Fehler und verhindert unautorisierte Ausführungen innerhalb der vernetzten Infrastruktur. Neben der reinen Aufgabenverteilung spielt das Speichermanagement eine zentrale Rolle. Die Agenten greifen auf ein erweitertes Langzeitgedächtnis (Memory) zu, um frühere Delegationsentscheidungen bei ähnlichen Anfragen effizient wiederzuverwenden und so wertvolle Rechenressourcen zu sparen. Darüber hinaus verankert das Konzept feste Prüfmechanismen durch menschliche Akteure. Besonders bei ethisch heiklen Entscheidungen oder weitreichenden Datenbankzugriffen stoppt die automatische Delegation, und das System fordert aktiv ein manuelles Feedback an. Der Ansatz liefert damit eine konkrete technische Grundlage, um die Skalierung von Multi-Agenten-Systemen zuverlässig steuerbar zu halten. Anzeige

  • KI-Modelle lassen sich laut Apple-Forschern schlechter steuern als angenommen

    Ein neues theoretisches Framework legt nahe, dass die Kontrollierbarkeit von Sprachmodellen und Bildgeneratoren überraschend fragil ist. Die Steuerbarkeit hängt stark von der jeweiligen Aufgabe und dem verwendeten Modell ab.

    Der Artikel KI-Modelle lassen sich laut Apple-Forschern schlechter steuern als angenommen erschien zuerst auf The Decoder.

  • Forscher beheben „Aphasie“ in multimodalen KI-Modellen mit Self-Play-Ansatz

    Chinesische Wissenschaftler haben mit UniCorn ein Framework entwickelt, das multimodalen KI-Modellen beibringen soll, ihre eigenen Schwächen zu erkennen und zu beheben. 

    Der Artikel Forscher beheben „Aphasie“ in multimodalen KI-Modellen mit Self-Play-Ansatz erschien zuerst auf The Decoder.

  • Anthropic Bloom: Warum dieses neue Tool die KI-Welt verändert

    Anthropic Lampe auf Buch

    Anthropic

    Kurzfassung

    Quellen

    Anthropic veröffentlicht mit Bloom ein Open-Source-Framework zur automatisierten Überwachung von KI-Modellen. Die Software erkennt komplexe Risiken wie Machtstreben oder Nutzer-Schmeichelei (Sycophancy) ohne menschliches Zutun. Entwickler können die Tools ab sofort über GitHub nutzen, um eigene Sicherheitsstandards und Verhaltensregeln zu testen.

    Anthropic – Bloom technical report

    GitHub – safety-research/bloom

    Anthropic – Alignment Science Blog

    Anthropic stellt mit Bloom ein neues Framework vor, das die Sicherheitsüberprüfung künstlicher Intelligenz grundlegend automatisiert. Die Software zielt darauf ab, subtile Fehlverhalten in Sprachmodellen messbar zu machen, ohne dabei auf den zeitintensiven Flaschenhals menschlicher Bewertungen angewiesen zu sein. Skalierbare Überwachung statt manueller Tests Die Entwicklung leistungsfähiger KI-Modelle stößt zunehmend an eine logistische Grenze: Die menschliche Überprüfung der Modellausgaben hält mit dem Entwicklungstempo nicht mehr Schritt. Anthropic reagiert auf dieses Problem mit der Veröffentlichung von Bloom. Das Framework ermöglicht sogenannte „Automated Evals“, also automatisierte Evaluierungen, bei denen eine KI die Ausgaben einer anderen KI bewertet. Dieser Ansatz, oft als „Scalable Oversight“ (skalierbare Aufsicht) bezeichnet, erlaubt Entwicklern das Testen von Modellen in einer Frequenz und Tiefe, die mit menschlichen Testern unmöglich wäre. Bloom bietet hierfür eine standardisierte Struktur, um komplexe Testszenarien zu definieren und reproduzierbar durchzuführen. Das System analysiert dabei nicht nur, ob eine Antwort faktisch korrekt ist, sondern prüft die zugrundeliegenden Verhaltensmuster des Modells. + Quelle: Anthropic Fokus auf versteckte Risiken Ein zentraler Aspekt des Technical Reports ist die Identifikation von Alignment-Risiken. Unter „Alignment“ versteht man in der Fachsprache die Ausrichtung der KI-Ziele an menschlichen Werten. Bloom spezialisiert sich darauf, schwer erkennbare Fehlverhalten aufzudecken. Dazu gehört etwa Sycophancy – die Tendenz von KI-Modellen, dem Nutzer nach dem Mund zu reden, statt objektive Fakten zu liefern. Ebenso scannt das Framework nach Anzeichen von „Power-Seeking Behavior“ (Machtstreben) oder Täuschungsversuchen. Diese Risiken treten oft erst bei sehr großen Modellen auf und sind durch einfache Frage-Antwort-Tests kaum zu detektieren. Bloom nutzt hierfür komplexe Dialogsimulationen, um das Modell in Situationen zu bringen, in denen es Farbe bekennen muss. Die Ergebnisse liefern Entwicklern ein detailliertes Risikoprofil, bevor ein Modell in den breiten Einsatz geht. Anzeige Transparenz durch Open Source Die Veröffentlichung des Codes auf GitHub markiert einen strategischen Wandel für das sonst eher verschlossene Unternehmen. Anthropic stellt Bloom unter einer Open-Source-Lizenz zur Verfügung und lädt die Forschungsgemeinschaft explizit zur Mitarbeit ein. Dieser Schritt dürfte den Druck auf andere KI-Labore erhöhen, ihre Sicherheitsstandards ebenfalls offenzulegen. Durch die Bereitstellung eines gemeinsamen Werkzeugkastens versucht das Unternehmen offenbar, eigene Metriken für KI-Sicherheit als Industriestandard zu etablieren. Entwickler können das Framework ab sofort nutzen, um eigene „Constitutions“ (Verhaltensregeln) zu testen und die Robustheit ihrer Anwendungen gegen Manipulationen zu prüfen. + Quelle: Anthropic

  • Neues Trainingsverfahren lässt KI-Agenten besser im Team arbeiten

    Forscher stellen ein neues Framework vor, das verschiedene KI-Agenten gemeinsam trainieren kann. Die Methode soll komplexe Aufgaben durch spezialisierte Rollen und Teamwork besser lösen.

    Der Artikel Neues Trainingsverfahren lässt KI-Agenten besser im Team arbeiten erschien zuerst auf The Decoder.