Schlagwort: Machines

  • Mira Muratis erstes KI-Modell schlägt gesamte Konkurrenz

    Mira Murati unterhält sich mit Robotern

    GPT-Images-2.0

    Kurzfassung

    Quellen

    Thinking Machines stellt Interaction Models vor, die Audio, Video und Text nativ und simultan in 200ms-Intervallen verarbeiten.
    Das System nutzt eine duale Architektur aus einem schnellen Interaktionsmodell und einem asynchronen Hintergrundmodell für komplexes Reasoning.
    In Benchmarks erreicht das Modell TML-Interaction-Small eine Rekord-Latenz von 0,4 Sekunden und übertrifft Wettbewerber in der Interaktionsqualität.
    Die neue Technologie ermöglicht visuelle Proaktivität und zeitbewusste Reaktionen ohne den Einsatz externer Spracherkennungs-Hilfsmittel.

    Thinking Machines: Interaction Models: A Scalable Approach to Human-AI Collaboration

    Thinking Machines beendet das Zeitalter der künstlichen Sprechpausen. Mit der Vorstellung der »Interaction Models« präsentiert das neue Unternehmen von Mira Murati eine Architektur, die Audio, Video und Text simultan verarbeitet. Statt auf das Ende einer Eingabe zu warten, agiert das KI-Modell nativ in Echtzeit.

    Der Abschied vom Wartespiel Bisherige KI-Modelle funktionieren nach dem Prinzip eines Funkgeräts: Eine Seite spricht, die andere wartet passiv ab. Erst nach Abschluss der Eingabe beginnt die Verarbeitung, was einen spürbaren Stillstand in der Zusammenarbeit bedeutet. Interaction Models lösen diese starre Struktur durch kontinuierliche Datenströme auf. Während das KI-Modell Informationen wahrnimmt, antwortet es im selben Moment. Diese Dynamik ermöglicht eine menschliche Interaktionsform, bei der Unterbrechungen und Zwischenrufe zum Standard gehören. Technische Grundlage bilden sogenannte Micro-Turns von lediglich 200 Millisekunden. In diesen kurzen Intervallen verarbeitet das KI-Modell Eingangsdaten und generiert gleichzeitig eigene Token. Ein entscheidender Vorteil liegt im Verzicht auf externe Hilfssysteme für die Sprechpausenerkennung. Bei herkömmlichen Echtzeit-Anwendungen steuern oft einfache Algorithmen, wann die KI antworten darf. Hier entscheidet die Intelligenz des KI-Modells selbstständig über den richtigen Moment für einen Einwurf. + Quelle: Thinking Machines Die duale Intelligenz-Architektur Das System vertraut auf eine funktionale Teilung, um Tempo und Tiefe zu vereinen. Ein schnelles Interaction Model übernimmt die unmittelbare Kommunikation und sichert die permanente Präsenz im Dialog. Parallel dazu agiert ein Background Model für Aufgaben, die intensives Reasoning oder den Zugriff auf externe Funktionen erfordern. Sobald dieses Hintergrundmodell Resultate liefert, webt die Interaktionsschicht diese Informationen organisch in das laufende Gespräch ein. Lange Schweigephasen bei schwierigen Anfragen gehören damit der Vergangenheit an. Während das Hintergrundmodell eine komplexe Suche durchführt, bleibt das KI-Modell ansprechbar und kann Rückfragen stellen oder den Fortschritt kommentieren. Diese Architektur ermöglicht laut Thinking Machines eine Skalierbarkeit, bei der größere KI-Modelle nicht zwangsläufig langsamer in der Reaktion werden. Vielmehr verbessert sich die Qualität der Zusammenarbeit mit zunehmender Rechenleistung. Anzeige Überlegenheit im Benchmark-Vergleich In den veröffentlichten Benchmarks demonstriert das KI-Modell »TML-Interaction-Small« seine Stärken in puncto Reaktionsgeschwindigkeit. Mit einer Latenz von nur 0,40 Sekunden im FD-bench V1 unterbietet es Konkurrenten wie GPT-2.0-min mit seinen 1,18 Sekunden deutlich. Die Grafik-1 verdeutlicht, dass das KI-Modell trotz sehr hoher Interaktionsqualität eine Intelligenz beibehält, die andere Instant-Modelle übertrifft. Während GPT-2.0 xhigh zwar leicht klüger agiert, benötigt es eine vierfach höhere Latenz von 1,63 Sekunden für die Antwort. + Quelle: Thinking Machines Besondere Fortschritte zeigen sich bei der qualitativen Interaktion und Tool-Nutzung. Im FD-bench V1.5 erreicht das System 77,8 Punkte, während die anderen Modelle kaum über 50% kommen. Die Benchmark-Tabelle listet zudem eine Pass@1-Rate von 68,0 % bei kombinierten Audio- und Tool-Aufgaben auf. Diese Zahlen belegen, dass die native Integration von Multimodalität stabilere Ergebnisse liefert als herkömmliche Koppelungen verschiedener Systeme. + Quelle: Thinking Machines Völlig neue Dimensionen eröffnet das KI-Modell bei proaktiven Aufgaben, die Zeitbewusstsein oder visuelle Analyse erfordern. Im TimeSpeak-Test erreicht das KI-Modell eine Genauigkeit von 64,7 %, während GPT Realtime-2.0 bei lediglich 4,3 % stagniert. Wie auf dem Bild zu sehen ist, glänzt das System zudem bei der visuellen Analyse von Bewegungsabläufen. Mit einem Wert von 35,4 beim RepCount-A-Benchmark kann das KI-Modell Übungen präzise zählen, woran bisherige KI-Modelle fast vollständig scheiterten. + Quelle: Thinking Machines Technische Hürden und Verfügbarkeit Trotz der Fortschritte bleiben infrastrukturelle Herausforderungen bestehen. Die permanente Verarbeitung von Video- und Audiostreams lässt den Kontextspeicher schnell anwachsen, was die Verwaltung langer Sitzungen erschwert. Zudem setzt die Nutzung eine äußerst stabile und breitbandige Verbindung voraus, da Verzögerungen im Netzwerk die Echtzeit-Erfahrung beeinträchtigen. Das aktuelle KI-Modell nutzt eine Mixture-of-Experts-Struktur mit 276 Milliarden Parametern, von denen 12 Milliarden aktiv pro Token arbeiten. Thinking Machines plant, die Research Preview in den kommenden Monaten schrittweise für Fachkreise zu öffnen. Größere KI-Modelle befinden sich bereits in der Entwicklung, sind aktuell jedoch noch zu rechenintensiv für eine flüssige Ausspielung. Das Ziel bleibt eine KI, die nicht nur klüger wird, sondern sich nahtlos in den menschlichen Arbeitsfluss integriert. Damit endet die Ära des klassischen Prompting zugunsten einer echten, synchronen Zusammenarbeit zwischen Mensch und KI. Wir sind seit langem mal wieder komplett beeindruckt!

  • Mira Muratis KI-Startup sichert sich Gigawatt-Deal mit Nvidia

    Nvidia und Thinking Machines Lab, das KI-Startup von Ex-OpenAI-Managerin Mira Murati, gehen eine langfristige Partnerschaft ein.

    Der Artikel Mira Muratis KI-Startup sichert sich Gigawatt-Deal mit Nvidia erschien zuerst auf The Decoder.

  • Google DeepMinds neuer 3D-Turbo für Gemini enthüllt

    Ein Logo von Google und CSM verbinden sich

    Nano Banana

    Kurzfassung

    Quellen

    Google DeepMind übernimmt das Startup Common Sense Machines, um 2D-Bilder in komplexe 3D-Umgebungen umzuwandeln. Die Technologie soll dem KI-Modell Gemini ein räumliches Weltverständnis verleihen, was besonders für Robotik und AR entscheidend ist. Zusätzlich investiert Google in Akana AI, um durch gezielte Zukäufe von Talenten und Tech-Startups die Marktführerschaft zu sichern.

    The Information – Google acquires Common Sense Machines

    AI CERTs – Google AI Acquisition boosts spatial 3D strategy

    MacKen.xyz – Google Deepmind goes on acquisition spree

    AI Tech Suite – DeepMind Unleashes Regulatory-Dodging Shopping Spree

    Techmeme – Google acquires Common Sense Machines

    Google integriert das US-Startup Common Sense Machines in die DeepMind-Sparte. Mit der Akquisition sichert sich der Konzern die Schlüsseltechnologie, um aus flachen 2D-Bildern räumliche 3D-Objekte zu generieren – ein entscheidender Baustein für das räumliche Verständnis zukünftiger Gemini-Versionen. Vom 2D-Bild zum 3D-Mesh Der Asset-Turbo Google hat das im US-amerikanischen Cambridge (Massachusetts) ansässige Startup Common Sense Machines (CSM) vollständig übernommen. CSM hat sich mit seiner Plattform „Cube“ einen Namen gemacht, die mittels KI aus einfachen 2D-Bildern oder Text-Prompts voll funktionsfähige 3D-Modelle (Meshes) generiert. Wo Grafiker früher Stunden für das Modellieren, Texturieren und Riggen einer einzelnen Figur brauchten, erledigt CSM dies in Minuten. Das Team aus dem MIT-Umfeld wird direkt in die DeepMind-Forschung integriert. Auch wenn CSM primär einzelne Objekte erstellt, ist diese Technologie das fehlende Puzzleteil für Googles Ambitionen in Richtung „World Models“. Damit eine KI wie Gemini die physische Welt wirklich simulieren kann, muss sie erst einmal verstehen, dass ein Bild nicht nur aus Pixeln besteht, sondern aus räumlichen Objekten mit Vorder- und Rückseiten. CSM liefert die automatisierte Masse an 3D-Daten, die für dieses Training notwendig ist. Anzeige Implikationen für Spieleentwicklung und Robotik Für die Industrie löst dies einen der größten Flaschenhälse: die Erstellung von „Digital Assets“. Spieleentwickler und Architekten benötigen riesige Bibliotheken an 3D-Objekten – von der Kaffeetasse bis zum Charakter. Googles Integration dieser Technologie könnte die Erstellung solcher Assets in der Cloud drastisch vereinfachen. Auch für die Robotik ist dieser Schritt essenziell. Roboter müssen Objekte greifen und manipulieren. Die Algorithmen von CSM helfen der KI, aus dem Kamerabild eines Roboters sofort auf die 3D-Form des Gegenstandes zu schließen. Dies verbessert die Navigation und Interaktion in unstrukturierten Umgebungen massiv. Aggressive Einkaufstour gegen den Fachkräftemangel Die Übernahme ist Teil einer breiteren Offensive. Parallel bestätigte Google den Einstieg bei Akana AI, einem Forschungslabor für neuartige Lernalgorithmen. Diese Serie von kleineren „Acqui-hires“ – dem Aufkauf von Firmen primär wegen ihrer Talente – zeigt Googles Strategie für 2026: Statt riskanter Megafusionen kauft man gezielt spezialisiertes Know-how für multimodale KI ein, um rechtliche Hürden zu umschiffen und die Innovationsgeschwindigkeit gegen OpenAI und Co. hochzuhalten.

  • Ex-OpenAI-CTO Mira Murati plant fünf Milliarden Dollar Kapitalrunde für Thinking Machines Lab

    Thinking Machines Lab, gegründet von der früheren OpenAI-Technikchefin Mira Murati, will laut The Information bis zu fünf Milliarden US-Dollar neues Kapital aufnehmen.

    Der Artikel Ex-OpenAI-CTO Mira Murati plant fünf Milliarden Dollar Kapitalrunde für Thinking Machines Lab erschien zuerst auf The Decoder.

  • Thinking Machines: Meta wirbt KI-Start-up-Mitgründer ab

    Mark Zuckerberg ist weiter auf KI-Shopping-Tour. Andrew Tulloch, Mitgründer von Mira Muratis KI-Startup Thinking Machines Lab, wechselt zu Meta.

    Der Artikel Thinking Machines: Meta wirbt KI-Start-up-Mitgründer ab erschien zuerst auf THE-DECODER.de.

  • Tinker: Startup von OpenAI Ex-CTO launcht erstes Produkt

    Das KI-Startup Thinking Machines, gegründet von Ex-OpenAI-CTO Mira Murati, hat mit Tinker eine neue Trainings-API für Sprachmodelle vorgestellt.

    Der Artikel Tinker: Startup von OpenAI Ex-CTO launcht erstes Produkt erschien zuerst auf THE-DECODER.de.

  • Tinker: Das KI-Tool für jedermann?

    Mira Murati mit Tinker

    Tinker: Das KI-Tool für jedermann? Die ehemalige OpenAI-Technikchefin Mira Murati bringt ihr erstes Produkt auf den Markt und fordert die KI-Elite mit einem neuen Ansatz heraus. Kurzfassung | Andreas Becker, 02.10.25
    gpt-image-1 | All-AI.de EINLEITUNG Die ehemalige Technikchefin von OpenAI, Mira Murati, tritt aus dem Schatten ihres früheren Arbeitgebers. Mit ihrem Startup Thinking Machines Lab hat sie nun das erste Produkt vorgestellt. Die Plattform namens „Tinker“ soll einen bisher teuren und komplexen Prozess in der KI-Entwicklung radikal vereinfachen. Damit fordert das mit zwölf Milliarden Dollar bewertete Unternehmen nicht nur OpenAI heraus, sondern will den Zugang zu leistungsstarker künstlicher Intelligenz für eine breitere Masse an Entwicklern öffnen. NEWS Ein Werkzeugkasten für KI-Modelle Tinker ist eine cloudbasierte Plattform, die das sogenannte Fine-Tuning von KI-Modellen automatisiert. Dieser Prozess ermöglicht es, bereits trainierte Modelle für sehr spezifische Aufgaben anzupassen, ohne sie von Grund auf neu entwickeln zu müssen. Bislang war das für viele Unternehmen ein kostspieliges und technisch aufwendiges Unterfangen, das eigene Hochleistungsrechner und spezialisiertes Wissen erforderte. Thinking Machines Lab nutzt hierfür eine Technik namens LoRA (Low-Rank Adaptation), die den Bedarf an Rechenleistung und somit auch die Kosten deutlich senkt. Zum Start unterstützt die Plattform offene Sprachmodelle wie Llama von Meta oder Qwen von Alibaba. Entwickler können über eine einfache Programmierschnittstelle darauf zugreifen, ihre Anpassungen vornehmen und die verfeinerten Modelle anschließend für eigene Projekte herunterladen und frei verwenden. + Quelle: Tinker Ein Team aus KI-Schwergewichten Der beeindruckende Wert des Startups erklärt sich vor allem durch das Team, das Mira Murati um sich versammelt hat. Viele hochkarätige Forscher und Entwickler von OpenAI, Meta und Mistral sind ihr gefolgt. Darunter finden sich Namen wie John Schulman, ein Mitgründer von OpenAI, der nun als leitender Wissenschaftler fungiert, und Barret Zoph als Technikchef. Diese Konzentration an Expertise soll die Qualität der Produkte sicherstellen. Erste Tester berichten, dass Tinker bereits jetzt leistungsfähiger und einfacher zu bedienen sei als vergleichbare Angebote. Das Vertrauen der Investoren scheint groß: Schon im Juli 2025 sammelte das Unternehmen zwei Milliarden Dollar ein, ohne zu diesem Zeitpunkt ein fertiges Produkt vorweisen zu können. Offener als die Konkurrenz Thinking Machines Lab möchte sich bewusst von Unternehmen wie OpenAI abgrenzen. Statt auf geschlossene Systeme zu setzen, konzentriert sich das Startup auf anpassbare KI und die Zusammenarbeit zwischen Mensch und Maschine. Transparenz spielt dabei eine zentrale Rolle. Ein Großteil der entwickelten Produkte soll als Open-Source veröffentlicht werden, um Forschung und Entwicklung in der gesamten Branche voranzutreiben. Dieser Ansatz, kombiniert mit der Demokratisierung des Fine-Tunings, könnte die Art und Weise, wie KI-Anwendungen entwickelt werden, nachhaltig verändern. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG Thinking Machines Lab unter Führung von Mira Murati hat mit „Tinker“ sein erstes Produkt vorgestellt, das Entwicklern ermöglicht, große KI-Modelle per Fine-Tuning einfach anzupassen. Die Plattform nutzt LoRA-Technik, um Kosten und Rechenaufwand drastisch zu senken, und unterstützt Open-Source-Modelle wie Meta Llama und Alibabas Qwen. Das Team, bestehend aus ehemaligen OpenAI-Forschern rund um John Schulman und Barret Zoph, sicherte sich bereits eine Bewertung von 12 Milliarden US-Dollar bei einer 2-Milliarden-Dollar-Seed-Finanzierung. Tinker steht zunächst kostenlos zur Verfügung und soll künftig Gebührenmodelle einführen, während das Unternehmen seine Forschungsergebnisse offenlegen und Open-Source-Komponenten fördern will. QUELLEN WIRED: Mira Murati’s Stealth AI Lab Launches Its First Product SiliconANGLE: Thinking Machines launches Tinker language model fine-tuning service Fortune: Former OpenAI CTO Mira Murati unveils Thinking Machines Lab TechCrunch: Mira Murati’s Thinking Machines Lab is worth $12B in seed round VentureBeat: Thinking Machines’ first official product is here – meet Tinker

  • KI-Start-up Thinking Machines will die Unberechenbarkeit großer Sprachmodelle zähmen

    Das Start-up Thinking Machines Lab hat analysiert, warum große Sprachmodelle auch bei identischen Fragen und Temperatur 0 (= immer die wahrscheinlichste Antwort) unterschiedliche Antworten liefern.

    Der Artikel KI-Start-up Thinking Machines will die Unberechenbarkeit großer Sprachmodelle zähmen erschien zuerst auf THE-DECODER.de.

  • Was hat Ex-Technikchefin Mira Murati bei OpenAI nicht gesehen?

    Mit Thinking Machines Lab verfolgt Ex-OpenAI-CTO Mira Murati offenbar einen klar spezialisierenden KI-Ansatz. Statt auf eine allgemeine Super-KI zu setzen, will sie mit individuell angepassten KI-Modellen für Unternehmen Geld verdienen.

    Der Artikel Was hat Ex-Technikchefin Mira Murati bei OpenAI nicht gesehen? erschien zuerst auf THE-DECODER.de.