Schlagwort: Modelle

  • Google Chrome: AI Mode erhält Side-by-Side-Ansicht

    Ein Chrome Browser mit geteilten Fenstern

    Nano Banana

    Kurzfassung

    Quellen

    Google erweitert den AI Mode in Chrome um eine Side-by-Side-Ansicht für den Desktop.
    Webseiten und der KI-Chat lassen sich nun parallel in einem Fenster nutzen.
    Ein neues Plus-Menü erlaubt zudem die Kombination mehrerer geöffneter Tabs in einer Suchanfrage.
    Die Modelle verarbeiten dabei gleichzeitig Texte, Bilder und PDF-Dokumente.

    Google Blog: A new way to explore the web with AI Mode in Chrome

    Google integriert den AI Mode tiefer in den Chrome-Browser und ermöglicht eine parallele Nutzung von Webseiten und KI auf quasi einer Browser-Oberfläche. Anwender können im Browser direkt neben den Ergebnissen mit Inhalten interagieren, ohne den Tab wechseln zu müssen.

    Nahtloser Kontext auf dem Desktop Klickt ein Nutzer im AI Mode auf einen Link, öffnet sich die Webseite in einer geteilten Ansicht direkt neben dem Chat. Das ständige Wechseln zwischen verschiedenen Tabs entfällt dadurch. Die KI behält den inhaltlichen Kontext der aufgerufenen Seite bei. So lassen sich spezifische Rückfragen zu einem langen Artikel oder einem Produkt stellen. Die Modelle analysieren den Text der aktuellen Webseite und kombinieren diese konkreten Informationen mit dem generellen Wissen aus dem Netz. Anzeige Suche über mehrere Tabs hinweg Eine zusätzliche Neuerung betrifft die direkte Einbindung bestehender Informationen. Über ein neues Plus-Menü auf der Startseite oder im AI Mode lassen sich bereits geöffnete Tabs in eine neue Suchanfrage integrieren. Diese Funktion steht sowohl in der Desktop-Version als auch in der mobilen Chrome-App bereit. Nutzer kombinieren dabei verschiedene Eingabeformate sehr flexibel in einem einzigen Prompt. Die Modelle verarbeiten nun gleichzeitig ausgewählte Tabs, hochgeladene Bilder oder lokale PDF-Dokumente. Die KI zieht die Fakten aus all diesen Quellen heran, um beispielsweise komplexe Zusammenhänge zwischen verschiedenen Vorlesungsskripten zu erklären. Über das gleiche Menü erhalten Anwender zudem schnellen Zugriff auf Funktionen wie Canvas oder die Bilderstellung. Die Erweiterungen für den AI Mode stehen in den USA ab sofort zur Verfügung, weitere Länder sollen zeitnah folgen.

  • Benchmark zeigt: Wenn KI-Modellen visuelle Daten fehlen, wird einfach geraten

    ProactiveBench testet, ob multimodale Sprachmodelle bei unzureichenden visuellen Informationen um Hilfe bitten. 22 getestete Modelle zeigen kaum proaktives Verhalten. Ein einfaches Reinforcement-Learning-Training weist jedoch einen möglichen Ausweg.

    Der Artikel Benchmark zeigt: Wenn KI-Modellen visuelle Daten fehlen, wird einfach geraten erschien zuerst auf The Decoder.

  • OpenAIs Plan: 32 Stunde Woche und »Recht auf KI«

    Ein OpenAI Logo für die Zukunft

    Nano Banana

    Kurzfassung

    Quellen

    Ein neues industriepolitisches Konzept skizziert Maßnahmen für den Übergang in das Zeitalter der Superintelligenz.
    Zentrale Forderungen umfassen einen öffentlichen Vermögensfonds, eine 32-Stunden-Woche bei vollem Lohnausgleich und ein grundlegendes Recht auf KI-Zugang.
    Um den Wandel abzusichern, verlangt das Papier zudem neue Steuerkonzepte, strikte Audits für hochriskante Modelle und verbindliche Notfallpläne.
    Begleitet wird der Vorstoß von einem neuen Förderprogramm in Washington, das Forschern Stipendien und API-Guthaben in Millionenhöhe bietet.

    OpenAI: Industrial policy for the Intelligence Age

    Die Entwicklung in Richtung Superintelligenz verlangt tiefgreifende wirtschaftliche Eingriffe. Ein neues industriepolitisches Konzept von OpenAI skizziert nun weitreichende Maßnahmen, darunter einen öffentlichen Vermögensfonds, die 32-Stunden-Woche und ein universelles »Recht auf KI«. Neuverteilung des Reichtums Der Zugang zu leistungsstarken Modellen gilt in dem Entwurf als essenzielle Infrastruktur. Ähnlich wie Strom oder das Internet erfordert die Technologie eine garantierte Basisversorgung für alle gesellschaftlichen Schichten. Um die finanziellen Gewinne der Automatisierung gerecht zu verteilen, steht die Gründung eines Public Wealth Fund im Fokus. Dieser Fonds investiert breit in den KI-Sektor. Die Erträge fließen anschließend als direkte Auszahlung an die Bevölkerung. So partizipieren auch Menschen ohne eigenes Startkapital am wirtschaftlichen Aufschwung der Technologie. Anzeige Steuern und Arbeitszeit Die technologische Entwicklung erzwingt gleichzeitig einen Umbau des traditionellen Steuersystems. Wenn der Faktor der menschlichen Arbeit schrumpft, brechen wichtige Einnahmen für die Sozialsysteme weg. Als Ausgleich sieht der Plan vor, vermehrt Kapitalerträge, Unternehmensgewinne und speziell automatisierte Arbeit zu besteuern. Die daraus resultierenden betrieblichen Effizienzgewinne sollen den Angestellten zugutekommen. Das Konzept schlägt konkrete Pilotprojekte für eine 32-Stunden-Woche bei vollem Lohnausgleich vor. Sicherheit und Infrastruktur Der immense Energiebedarf aktueller und kommender Modelle verlangt einen extrem schnellen Ausbau der Stromnetze. Öffentlich-private Partnerschaften übernehmen hierbei idealerweise die Finanzierung und reduzieren bürokratische Hürden. Auf technischer Ebene fordert das Positionspapier strikte Audits. Hochriskante KI-Systeme erfordern unabhängige Vor- und Nachkontrollen durch Einrichtungen wie das Center for AI Standards and Innovation (CAISI). Gleichzeitig müssen fertige Notfallpläne in den Schubladen liegen. Diese greifen ein, falls gefährliche Modelle in die freie Wildbahn gelangen und die Entwickler den Zugriff verlieren. Anzeige Millionen-Förderung für Forscher Die Theorie geht nun den ersten Schritt in Richtung Praxis. Im Mai öffnet dafür ein neuer Workshop in Washington, D.C. seine Türen. Forscher und Entwickler, die auf diesen politischen Ideen aufbauen, erhalten erhebliche finanzielle Unterstützung. Das begleitende Pilotprogramm umfasst Forschungsstipendien von bis zu 100.000 US-Dollar sowie API-Guthaben im Wert von einer Million US-Dollar, die Interessierte ab sofort beantragen können.

  • Gemma 4: Google stellt neue Open-Source-Modelle unter Apache-2.0-Lizenz vor

    Google veröffentlicht mit Gemma 4 seine bisher leistungsfähigste offene Modellfamilie. Die vier neuen Modelle sollen auf Hardware vom Smartphone bis zur Workstation laufen und stehen erstmals unter einer vollständig offenen Lizenz.

    Der Artikel Gemma 4: Google stellt neue Open-Source-Modelle unter Apache-2.0-Lizenz vor erschien zuerst auf The Decoder.

  • Voller Zugriff auf Gemini: Apple destilliert Googles KI für lokale Modelle

    Apple zapft Googles Gemini an: Der iPhone-Hersteller darf das KI-Modell in eigenen Rechenzentren destillieren, um kleinere Modelle für Siri und Apple-Geräte zu bauen.

    Der Artikel Voller Zugriff auf Gemini: Apple destilliert Googles KI für lokale Modelle erschien zuerst auf The Decoder.

  • Mathe braucht Bedenkzeit, Alltagswissen ein gutes Gedächtnis: Forscher optimieren KI-Architektur

    Ein Forschungsteam aus Bonn lässt Transformer-Modelle selbst entscheiden, wie oft sie über ein Problem nachdenken, und übertrifft damit deutlich größere Modelle bei Mathematik-Aufgaben.

    Der Artikel Mathe braucht Bedenkzeit, Alltagswissen ein gutes Gedächtnis: Forscher optimieren KI-Architektur erschien zuerst auf The Decoder.

  • Adobe Firefly integriert über 30 KI-Modelle und lässt Nutzer eigene Bildstile trainieren

    Adobe erweitert seine KI-Kreativplattform Firefly um benutzerdefinierte Modelle, die auf eigenen Bildern trainiert werden können. Außerdem bündelt das Unternehmen über 30 KI-Modelle verschiedener Anbieter in einer einzigen Umgebung.

    Der Artikel Adobe Firefly integriert über 30 KI-Modelle und lässt Nutzer eigene Bildstile trainieren erschien zuerst auf The Decoder.

  • Pentagon plant offenbar KI-Training auf geheimen Militärdaten

    Das US-Verteidigungsministerium will laut einem Bericht sichere Umgebungen einrichten, in denen KI-Firmen ihre Modelle mit klassifizierten Daten trainieren. Bisher durften Modelle geheime Daten nur lesen, nicht daraus lernen.

    Der Artikel Pentagon plant offenbar KI-Training auf geheimen Militärdaten erschien zuerst auf The Decoder.

  • OpenAI bringt neue KI-Modelle für reaktionsschnelle Subagenten

    Ein kleiner schneller Programmierer programmiert mit gpt 5.4 mini

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI positioniert GPT-5.4 mini und nano gezielt als extrem schnelle Subagenten für komplexe Entwickler-Workflows.
    Die Modelle arbeiten doppelt so schnell wie ihre Vorgänger, fassen bis zu 400.000 Token und glänzen bei der automatisierten Programmierung sowie der visuellen Steuerung von Oberflächen.
    Dank der optimierten Architektur sinken Latenzzeiten und API-Kosten drastisch, sodass komplexe Aufgaben in unter 100 Sekunden für wenige Cent gelöst werden.

    OpenAI: Introducing GPT 5.4 mini und nano

    OpenAI hat die Sprachmodelle GPT-5.4 mini und GPT-5.4 nano offiziell veröffentlicht. Das Unternehmen richtet die neuen Versionen ganz gezielt auf einen speziellen Einsatzzweck aus: Sie sollen als reaktionsschnelle „Subagenten“ in automatisierten Arbeitsabläufen dienen. Fokus auf agentische Systeme Schon der Vorgänger verarbeitete Bilder, Text und Code nativ. Nun ändert sich jedoch die Philosophie in der praktischen Anwendung. In modernen Umgebungen plant ein großes Hauptmodell komplexe Aufgaben und delegiert die reine Ausführung an kleine, schnelle Worker-Modelle. Genau für diese ausführende Rolle hat OpenAI GPT-5.4 mini und nano optimiert. Sie richten sich an Entwickler, bei denen die Latenz das direkte Nutzererlebnis bestimmt. Dazu zählen flüssige Coding-Assistenten oder Systeme, die Bildschirminhalte in Echtzeit auslesen. Beide Modelle arbeiten dabei mehr als doppelt so schnell wie die vorherige Generation. OpenAI hat zudem das Kontextfenster auf 400.000 Token erweitert, damit die KI auch große Code-Datenbanken problemlos am Stück überblickt. Anzeige Starke Werte bei Programmierung und Vision Die aktuellen Benchmarks stützen diese neue Ausrichtung. Bei der Softwareentwicklung (SWE-bench Pro) erreicht GPT-5.4 mini 54,4 %. Das kompaktere nano-Modell kommt auf 52,4 %. + Quelle: OpenAI Auch bei der visuellen Steuerung von Computern punktet das Update. Im OSWorld-Verified Benchmark erzielt das mini-Modell 72,1 %. Es liegt damit fast gleichauf mit dem großen Flaggschiff GPT-5.4, das 75,0 % erreicht. Bei dieser rein visuellen Aufgabe zeigt das kleine nano-Modell mit 39,0 % allerdings noch Schwächen. Das logische Denken, das sogenannte Reasoning, wurde ebenfalls in die kleinen Modelle integriert. Im anspruchsvollen GPQA Diamond Benchmark liefert das mini-Modell starke 88,0 % korrekte Antworten. Auch der Zugriff auf externe Programme (Tool-Calling) gelingt deutlich besser. Im Toolathlon-Test steigert sich GPT-5.4 mini auf 42,9 %. Kosten und Latenz im Praxis-Check Der eigentliche Sprung zeigt sich in der reinen operativen Effizienz. Messdaten zum SWE-bench Pro verdeutlichen die Vorteile. Eine komplexe Programmier-Aufgabe dauert mit dem großen GPT-5.4 Modell oft über 1.000 Sekunden und kostet den Entwickler rund 0,85 US-Dollar. GPT-5.4 mini erledigt den gleichen Auftrag in etwa 200 bis 400 Sekunden. Der Preis fällt dabei auf extrem günstige 0,10 bis 0,30 US-Dollar. Wer auf absolute Geschwindigkeit setzt, nutzt GPT-5.4 nano, welches die Ergebnisse in knapp 100 Sekunden liefert. + + Quelle: OpenAI Die finalen Preise für die API-Schnittstelle unterstreichen den Sparkurs. GPT-5.4 mini kostet 0,75 US-Dollar pro Million Input-Token und 4.50 US-Dollar pro Million Output Token. Das nano-Modell wird für lediglich 0,20/1,25 US-Dollar angeboten. Weitere Benchmarks: + + Quelle: OpenAI

  • OpenAI bringt GPT-5.4 mini und nano: Schneller, fähiger, aber auch deutlich teurer

    OpenAI veröffentlicht mit GPT-5.4 mini und nano zwei neue kompakte Modelle, die für Coding-Assistenten, Subagenten und Computersteuerung optimiert sind. Die Leistung nähert sich bei GPT-5.4 mini dem Vollmodell, die Preise steigen jedoch deutlich gegenüber den Vorgängern.

    Der Artikel OpenAI bringt GPT-5.4 mini und nano: Schneller, fähiger, aber auch deutlich teurer erschien zuerst auf The Decoder.