Schlagwort: AI

  • Google Chrome: AI Mode erhält Side-by-Side-Ansicht

    Ein Chrome Browser mit geteilten Fenstern

    Nano Banana

    Kurzfassung

    Quellen

    Google erweitert den AI Mode in Chrome um eine Side-by-Side-Ansicht für den Desktop.
    Webseiten und der KI-Chat lassen sich nun parallel in einem Fenster nutzen.
    Ein neues Plus-Menü erlaubt zudem die Kombination mehrerer geöffneter Tabs in einer Suchanfrage.
    Die Modelle verarbeiten dabei gleichzeitig Texte, Bilder und PDF-Dokumente.

    Google Blog: A new way to explore the web with AI Mode in Chrome

    Google integriert den AI Mode tiefer in den Chrome-Browser und ermöglicht eine parallele Nutzung von Webseiten und KI auf quasi einer Browser-Oberfläche. Anwender können im Browser direkt neben den Ergebnissen mit Inhalten interagieren, ohne den Tab wechseln zu müssen.

    Nahtloser Kontext auf dem Desktop Klickt ein Nutzer im AI Mode auf einen Link, öffnet sich die Webseite in einer geteilten Ansicht direkt neben dem Chat. Das ständige Wechseln zwischen verschiedenen Tabs entfällt dadurch. Die KI behält den inhaltlichen Kontext der aufgerufenen Seite bei. So lassen sich spezifische Rückfragen zu einem langen Artikel oder einem Produkt stellen. Die Modelle analysieren den Text der aktuellen Webseite und kombinieren diese konkreten Informationen mit dem generellen Wissen aus dem Netz. Anzeige Suche über mehrere Tabs hinweg Eine zusätzliche Neuerung betrifft die direkte Einbindung bestehender Informationen. Über ein neues Plus-Menü auf der Startseite oder im AI Mode lassen sich bereits geöffnete Tabs in eine neue Suchanfrage integrieren. Diese Funktion steht sowohl in der Desktop-Version als auch in der mobilen Chrome-App bereit. Nutzer kombinieren dabei verschiedene Eingabeformate sehr flexibel in einem einzigen Prompt. Die Modelle verarbeiten nun gleichzeitig ausgewählte Tabs, hochgeladene Bilder oder lokale PDF-Dokumente. Die KI zieht die Fakten aus all diesen Quellen heran, um beispielsweise komplexe Zusammenhänge zwischen verschiedenen Vorlesungsskripten zu erklären. Über das gleiche Menü erhalten Anwender zudem schnellen Zugriff auf Funktionen wie Canvas oder die Bilderstellung. Die Erweiterungen für den AI Mode stehen in den USA ab sofort zur Verfügung, weitere Länder sollen zeitnah folgen.

  • Adobe stellt neuen Firefly AI Assistant für komplexe kreative Workflows vor

    Adobe bringt mit dem Firefly AI Assistant einen KI-Agenten, der kreative Arbeitsabläufe über Apps wie Photoshop und Premiere per Chat steuert.

    Der Artikel Adobe stellt neuen Firefly AI Assistant für komplexe kreative Workflows vor erschien zuerst auf The Decoder.

  • KI-Cybersecurity: Anthropics Claude Mythos kann autonom Unternehmensnetzwerke hacken

    Das britische AI Security Institute, eine Behörde der britischen Regierung, hat Anthropics Claude Mythos Preview auf Cyber-Fähigkeiten getestet. Das Modell konnte erstmals eine vollständige Angriffssimulation auf ein Unternehmensnetzwerk autonom durchführen. Es gibt aber viele Einschränkungen.

    Der Artikel KI-Cybersecurity: Anthropics Claude Mythos kann autonom Unternehmensnetzwerke hacken erschien zuerst auf The Decoder.

  • Stanfords AI Index 2026: KI skaliert schneller, als die Welt sich anpassen kann

    Der AI Index Report 2026 von Stanford HAI dokumentiert Leistungssprünge bei KI-Modellen, eine geschlossene Lücke zwischen den USA und China und wachsende Sicherheitsprobleme. Gleichzeitig sinkt das Vertrauen der Bevölkerung.

    Der Artikel Stanfords AI Index 2026: KI skaliert schneller, als die Welt sich anpassen kann erschien zuerst auf The Decoder.

  • US-Start-up Arcee AI fordert mit offenem 400B-Modell chinesische KI-Labore heraus

    Türkisfarbenes Dreieck-Logo über Trinity Large Thinking und Untertitel Scaling an Open-Source-Agent vor dunklem Hintergrund

    Das Start-up Arcee AI hat mit Trinity-Large-Thinking ein offenes Reasoning-Modell veröffentlicht, das bei Agenten-Aufgaben mit Claude Opus konkurrieren soll. Das Unternehmen steckte dafür rund die Hälfte seines gesamten Risikokapitals in das Projekt.

    Der Artikel US-Start-up Arcee AI fordert mit offenem 400B-Modell chinesische KI-Labore heraus erschien zuerst auf The Decoder.

  • Zhipu AIs GLM-5.1 soll Linux-Desktop innerhalb von 8 Stunden gebaut haben

    Zhipu AI veröffentlicht GLM-5.1 unter MIT-Lizenz. Statt schneller Einzellösungen setzt das Unternehmen auf ein Modell, das über Hunderte Iterationen hinweg seine eigene Strategie überarbeitet. Bei Reasoning fällt es allerdings zurück.

    Der Artikel Zhipu AIs GLM-5.1 soll Linux-Desktop innerhalb von 8 Stunden gebaut haben erschien zuerst auf The Decoder.

  • Stability AI bringt Brand Studio für markenkonformen KI-Content

    Stability AI setzt auf Marken-KI: Das neue „Brand Studio“ soll Kreativteams helfen, KI-Bilder an die eigene Markenidentität anzupassen: mit eigenen Modellen, automatischen Produktionsplänen und gezielter Bildbearbeitung.

    Der Artikel Stability AI bringt Brand Studio für markenkonformen KI-Content erschien zuerst auf The Decoder.

  • Das KI-Modell GEN-1 bringt Robotern das Improvisieren bei

    Roboter mit Gen-1

    Nano Banana

    Kurzfassung

    Quellen

    Das KI-Unternehmen Generalist AI hat das neue multimodale KI-Modell GEN-1 für die Robotik vorgestellt.
    Die Modelle erreichen bei physischen Aufgaben wie dem Falten von Kartons eine Erfolgsquote von 99 Prozent.
    Dank einer neuen Trainingsmethode agiert GEN-1 dreimal schneller als sein Vorgänger und kann Fehler in Echtzeit selbstständig korrigieren.

    Generalist AI Blog: GEN-1: Scaling Embodied Foundation Models to Mastery

    YouTube: Introducing GEN-1

    Das KI-Unternehmen Generalist AI präsentiert mit GEN-1 ein neues multimodales KI-Modell für die Robotik. Das Modell erreicht bei physischen Aufgaben eine Erfolgsquote von 99 Prozent und bringt Handlungsfähigkeit in komplexe Umgebungen.

    Höhere Geschwindigkeit und Präzision GEN-1 löst eine zentrale Herausforderung der Robotik: die langsame Ausführung von Aufgaben. Das KI-Modell agiert im Durchschnitt dreimal schneller als bisherige Spitzenreiter. Für das Falten eines Kartons benötigt das Modell beispielsweise lediglich 12,1 Sekunden. Das Vorgängermodell GEN-0 brauchte für denselben Vorgang noch rund 34 Sekunden. + Quelle: Generalist Gleichzeitig steigt die Zuverlässigkeit der Modelle deutlich. Bei filigranen Tätigkeiten wie dem Verpacken von Smartphones oder der Wartung von Saugrobotern erzielt GEN-1 konsistent Erfolgsquoten von 99 Prozent. Zum Vergleich lieferte der Vorgänger bei ähnlichen Arbeiten eine durchschnittliche Rate von 64 bzw.50 Prozent. Ohne vorheriges Pre-Training scheitern unvorbereitete Modelle meist sogar komplett. + + Quelle: Generalist Improvisation statt starrem Skript Herkömmliche Industrieroboter stoppen sofort bei Abweichungen vom strikt programmierten Ablauf. GEN-1 reagiert hingegen flexibel auf unvorhergesehene Veränderungen in der Umgebung. Verrutscht eine kleine Unterlegscheibe, erkennt das KI-Modell das Problem visuell. Es passt den Griff an oder nutzt spontan die zweite Hand für die korrekte Positionierung. Diese Fähigkeit zur Improvisation basiert auf einem tiefen Verständnis physikalischer Gesetzmäßigkeiten. Fällt ein Gegenstand aus der Hand, greifen die mechanischen Finger in Echtzeit nach, um den Fall abzufangen. In einem Versuch rüttelt das KI-Modell sogar selbstständig an einer Plastiktüte, um ein Plüschtier vollständig hineingleiten zu lassen. Entwickler programmieren solche spezifischen Korrekturbewegungen nicht mehr explizit vor. Anzeige Daten aus der realen Welt Die Basis für diesen Fortschritt bilden neuartige Trainingsmethoden. Generalist AI verzichtet für das Basis-Training vollständig auf teure Teleoperation oder rein simulierte Datensätze. Das KI-Modell lernt stattdessen im Vorfeld aus 500.000 Stunden menschlicher Interaktion. Spezielle tragbare Sensoren erfassen diese feingliedrigen Bewegungsdaten direkt an menschlichen Händen. Um eine völlig neue physische Aufgabe zu erlernen, benötigt GEN-1 anschließend nur noch eine einzige Stunde an spezifischen Roboterdaten. Das senkt den Aufwand für die Adaption an neue Hardware drastisch. Weg in die wirtschaftliche Anwendung Die Kombination aus hohem Tempo, Ausfallsicherheit und spontaner Fehlerkorrektur öffnet neue Optionen für die kommerzielle Robotik. Die Modelle erreichen erstmals Leistungsniveaus, die den Einsatz außerhalb stark kontrollierter Fabrikhallen wirtschaftlich attraktiv machen. Dadurch lassen sich mechanische Helfer zunehmend in dynamischen Arbeitsumgebungen einsetzen.

  • „Ultra Deep Research“: Sakana AI will wochenlange Strategieanalysen automatisieren

    Logo oder Grafik von Sakana AI zum neuen Produkt "Sakana Marlin", einem KI-Forschungsassistenten für Geschäftskunden.

    Das japanische KI-Start-up Sakana AI stellt „Sakana Marlin“ vor. Der KI-Assistent für Geschäftskunden recherchiert bis zu acht Stunden völlig autonom und erstellt fertige Analysen. Er soll die wochenlange Arbeit von Recherche-Teams übernehmen und befindet sich derzeit in der Testphase.

    Der Artikel „Ultra Deep Research“: Sakana AI will wochenlange Strategieanalysen automatisieren erschien zuerst auf The Decoder.

  • Klage gegen Perplexity AI: Tracker sollen Nutzergespräche an Meta und Google übermitteln

    Perplexity AI sieht sich mit einer Sammelklage konfrontiert. Darin wird dem Unternehmen vorgeworfen, persönliche Nutzerdaten aus Chats an Meta und Google weiterzugeben, berichtet Bloomberg.

    Der Artikel Klage gegen Perplexity AI: Tracker sollen Nutzergespräche an Meta und Google übermitteln erschien zuerst auf The Decoder.