Schlagwort: Nutzer

  • Claude Code folgt Entwicklern jetzt aufs Handy

    Terminalfenster mit „Welcome to the Claude Code research preview!“-Meldung, ASCII-Art-Logo „CLAUDE CODE“ und Login-Erfolgshinweis.

    Nutzer von Claude Code können jetzt eine lokal laufende Programmier-Sitzung von unterwegs über Smartphone, Tablet oder Browser weiterführen.

    Der Artikel Claude Code folgt Entwicklern jetzt aufs Handy erschien zuerst auf The Decoder.

  • Anthropic-Studie: Nutzer hinterfragen polierte KI-Ergebnisse seltener

    Anthropic hat einen neuen „AI Fluency Index“ veröffentlicht, der misst, wie kompetent Menschen mit KI-Werkzeugen umgehen. Ein zentraler Befund: Wenn Claude polierte Ergebnisse liefert, sinkt die kritische Aufmerksamkeit der Nutzer.

    Der Artikel Anthropic-Studie: Nutzer hinterfragen polierte KI-Ergebnisse seltener erschien zuerst auf The Decoder.

  • Anthropic enthüllt die größten Fehler bei der KI-Nutzung

    Eine Anthropic Grafik

    Anthropic + Nano Banana

    Kurzfassung

    Quellen

    Anthropic hat den „AI Fluency Index“ veröffentlicht, der das Verhalten von Nutzern bei der Interaktion mit Sprachmodellen datenbasiert messbar macht.
    Die Analyse zeigt, dass Anwender zwar gute und strukturierte Prompts formulieren, aber kritische Überprüfungen von Fakten und der KI-Logik stark vernachlässigen.
    Bestimmte Elemente der Benutzeroberfläche, wie separat dargestellte Code- oder Text-Fenster, verstärken dieses blinde Vertrauen zusätzlich.
    Als Gegenmaßnahme startet das Unternehmen nun kostenlose Online-Schulungen, um eine effektivere und sicherere KI-Nutzung zu fördern.

    Anthropic Education Report: The AI Fluency Index

    Kostenloser Anthropic Kurs

    Anthropic stellt mit dem „AI Fluency Index“ ein neues Messinstrument zur Bewertung der Mensch-KI-Zusammenarbeit vor. Die Auswertung zeigt detailliert, wie Anwender mit Sprachmodellen interagieren, und deckt eklatante Defizite bei der Überprüfung generierter Inhalte auf. Drei Kategorien der Interaktion Der Index unterteilt die Nutzung von künstlicher Intelligenz systematisch in drei Hauptbereiche: Beschreibung, Delegation und Urteilsvermögen. Die erfassten Messwerte verdeutlichen, dass die meisten Nutzer die grundlegende Steuerung der Sprachmodelle mittlerweile gut beherrschen. + Quelle: Anthropic Gut 85 Prozent der Anwender passen ihre Prompts im Verlauf eines Dialogs mehrfach an und verfeinern die Ergebnisse schrittweise. Mehr als die Hälfte klärt das exakte Ziel der Aufgabe, bevor die KI komplexe Vorgänge ausführt. Konkrete Beispiele für das gewünschte Resultat liefern immerhin noch 41 Prozent der Personen. + Quelle: Anthropic Schwachstelle beim Urteilsvermögen Sobald es um die kritische Bewertung der KI-Ausgaben geht, fallen die Zahlen jedoch drastisch ab. Der Bereich des Urteilsvermögens bildet das eindeutige Schlusslicht der Analyse. Lediglich 8,7 Prozent der Nutzer überprüfen die generierten Fakten oder Behauptungen aktiv. Auch die zugrundeliegende Logik (Reasoning) der Modelle wird nur in knapp 16 Prozent der Fälle hinterfragt. Die Daten deuten stark darauf hin, dass viele Anwender den Texten ein zu hohes Grundvertrauen entgegenbringen. Diese fehlende Distanz stellt ein erhebliches Risiko für die produktive Nutzung dar. Anzeige Der Einfluss des User Interfaces Spezifische Funktionen des User Interfaces verändern das Nutzerverhalten erheblich. Der sogenannte Artifact-Effekt demonstriert, wie ein separates Fenster für Code oder längere Dokumente die Eingaben der Nutzer strukturiert. + Quelle: Anthropic Verwenden Anwender ein solches Element, definieren sie das Ziel um knapp 15 Prozentpunkte häufiger. Die explizite Vorgabe von Formaten steigt ebenfalls um 14,5 Prozentpunkte. Gleichzeitig sinkt durch diese visuelle Trennung die ohnehin geringe Bereitschaft zum Faktencheck um weitere 3,7 Prozentpunkte ab. Eine professionell wirkende Darstellung suggeriert offensichtlich eine höhere Präzision der Ausgaben. Kostenlose Schulungen als Reaktion Nutzer, die ihre Anfragen kontinuierlich anpassen, agieren deutlich effektiver. Sie erkennen laut der Studie viermal häufiger, wenn dem System relevanter Kontext fehlt, und fordern diesen proaktiv ein. Auch die Nutzung von Beispielen verdoppelt sich bei dieser Nutzergruppe nahezu. Um diese fortgeschrittenen Techniken flächendeckend zu etablieren, flankiert Anthropic den Index mit neuen Bildungsangeboten. Über die Plattform Skilljar stehen ab sofort kostenfreie Module wie der Kurs „AI Fluency: Framework & Foundations“ zur Verfügung. Diese Einheiten sollen exakt die schwach ausgeprägten analytischen Fähigkeiten trainieren. Nutzer lernen dort, Prompts systematisch aufzubauen und Ergebnisse kritisch zu evaluieren. Die bei der Nutzung von Anthropics Diensten anfallenden Daten fließen standardmäßig in das zukünftige Training der Modelle ein, sofern Anwender dem nicht per Opt-out widersprechen. Das Unternehmen nutzt diese Telemetriedaten, um die Metriken des Index fortlaufend anzupassen und die Steuerung der KI weiter zu verfeinern. Anzeige

  • Microsoft-365-Bug: Copilot verarbeitet geschützte und vertrauliche E-Mails

    Ein Copilot Roboter ließt heimlich Emails

    Nano Banana

    Kurzfassung

    Quellen

    Ein Softwarefehler im Microsoft 365 Copilot führte dazu, dass die KI vertrauliche E-Mails trotz aktiver Schutzrichtlinien verarbeitete.
    Der KI-Assistent ignorierte sogenannte Data-Loss-Prevention-Vorgaben und Sensibilitäts-Labels in Outlook vollständig.
    Ein unautorisierter Zugriff auf fremde Postfächer fand jedoch nicht statt, da Nutzer ohnehin Lesezugriff auf die verarbeiteten Mails hatten.
    Microsoft hat das Problem bestätigt und den Fehler durch ein automatisches Update auf seinen Servern inzwischen behoben.

    Microsoft says bug causes Copilot to summarize confidential emails

    Microsoft says Office bug exposed customers‘ confidential emails to Copilot AI

    Ein Softwarefehler in Microsoft 365 führte in den vergangenen Wochen dazu, dass der KI-Assistent Copilot vertrauliche Outlook-E-Mails auslas und in seinen Zusammenfassungen wiedergab. Die Künstliche Intelligenz ignorierte dabei aktiv gesetzte Sicherheitsrichtlinien und Schutzetiketten der Administratoren. Schutzmechanismen ausgehebelt Der Fehler betraf das Zusammenspiel zwischen dem Copilot Chat und den sogenannten Data-Loss-Prevention-Richtlinien (DLP) von Microsoft. Diese DLP-Vorgaben scannen Dokumente sowie Nachrichten nach sensiblen Mustern wie Kreditkartennummern oder internen Projektcodes und blockieren definierte Aktionen. Im konkreten Fall durchbrach die KI-Assistenz diese administrativen Barrieren jedoch vollständig. E-Mails, die von Absendern mit spezifischen Sensibilitäts-Labels markiert wurden, flossen ungehindert in die generierten Chat-Antworten ein. Nutzer erhielten dadurch Zusammenfassungen von Nachrichten, deren Verarbeitung durch algorithmische Systeme eigentlich auf Netzwerkebene untersagt war. Anzeige Patch auf den Servern verteilt Microsoft bestätigte die Schwachstelle und implementierte mittlerweile ein serverseitiges Update, das die fehlerhafte Rechteprüfung korrigiert. Der Redmonder Konzern verzichtete auf genaue Angaben darüber, wie viele Unternehmenskunden von der fehlerhaften Datenverarbeitung innerhalb ihrer IT-Umgebungen betroffen waren. Technisch betrachtet beschränkte sich das Auslesen der geschützten Daten auf den jeweiligen Nutzerkontext. Der Copilot gab die Informationen aus den blockierten E-Mails nur an jene Anwender aus, die ohnehin einen regulären Lesezugriff auf das jeweilige Postfach besaßen. Eine Ausweitung der Zugriffsrechte, durch die Nutzer auf fremde Postfächer hätten zugreifen können, fand laut den vorliegenden Fehlerberichten nicht statt. Dennoch stellt die Umgehung der DLP-Richtlinien einen harten Verstoß gegen gängige Compliance-Vorgaben dar. Wachsende Skepsis bei Unternehmens-KI Fehler bei der Zugriffssteuerung verstärken die aktuelle Skepsis gegenüber der tiefen Integration von Sprachmodellen in Unternehmensnetzwerke. Solche Compliance-Risiken rufen zunehmend institutionelle Gegenmaßnahmen auf den Plan. Erst vor wenigen Tagen blockierte das Europäische Parlament die Nutzung von generativen KI-Tools auf den Dienstgeräten seiner Abgeordneten und verwies dabei explizit auf unkontrollierbare Sicherheitsrisiken im Umgang mit sensiblen Daten. Microsoft hat das erforderliche Update für den Copiloten nun automatisch auf seinen Servern eingespielt, sodass Systemadministratoren keine weiteren manuellen Schritte auf den Endgeräten der Mitarbeiter durchführen müssen.

  • Perplexity schmeißt die Werbung wieder aus seiner KI-Suche

    Verschiedene KI Firmen mit und ohne Werbung

    Nano Banana

    Kurzfassung

    Quellen

    Perplexity stellt sein Werbegeschäft in der KI-Suche überraschend ein, um das Vertrauen der Nutzer in die Objektivität der Antworten zu bewahren.
    Damit distanziert sich das Start-up bewusst von Branchenriesen wie OpenAI und Google, die zunehmend auf direkte oder indirekte Werbefinanzierung setzen.
    Auch Herausforderer wie Anthropic nutzen die wachsende Skepsis gegenüber vermischten Inhalten offensiv als Argument für ihre rein abobasierten Sprachmodelle.
    Der Markt spaltet sich somit spürbar in werbefinanzierte Massendienste und kommerzfreie Zonen, die auf absolute Transparenz setzen.

    OpenAI: Testen von Anzeigen in ChatGPT

    The Verge: Sam Altman responds to Anthropic’s ‘funny‘ Super Bowl ads

    Financial Times: Perplexity drops advertising as it warns it will hurt trust in AI

    Reuters via TradingView: Perplexity drops advertising as it warns it will hurt trust in AI

    Der KI-Anbieter und Suchmaschineexperte Perplexity stellt sein Werbegeschäft mit sofortiger Wirkung wieder ein, da die eingeblendeten Anzeigen das Vertrauen der Nutzer beschädigen. Damit reagiert das Unternehmen auf die aktuelle Marktentwicklung, in der Konkurrenten wie OpenAI zunehmend auf werbefinanzierte Chatbots setzen. Kehrtwende bei der Suche Perplexity beendet die Platzierung von gesponserten Inhalten in seinen Suchergebnissen. Das Unternehmen begründet diesen Schritt mit dem Schutz der Nutzerbindung, da kommerzielle Einblendungen die wahrgenommene Neutralität der Antworten untergraben. Die Entscheidung markiert eine Abkehr von dem erst kürzlich eingeführten Plan, neben dem kostenpflichtigen Abonnement ein zweites finanzielles Standbein durch Werbekunden aufzubauen. Konsumenten reagieren zunehmend empfindlich auf vermischte Inhalte bei generativer Künstlicher Intelligenz. Wenn ein System zusammenhängende Texte als Antwort auf komplexe Fragen formuliert, lässt sich wesentlich schwerer als bei klassischen Suchmaschinen erkennen, welche Passagen organisch entstanden sind und welche durch finanzielle Interessen gesteuert wurden. Bei einer herkömmlichen Link-Liste ist die optische Trennung für den Anwender klarer erfassbar. Perplexity zieht nun die Konsequenz aus diesem Transparenzproblem und finanziert den Betrieb seiner Server ab sofort wieder ausschließlich über direkte Nutzerzahlungen. Anzeige Die Strategie der etablierten Anbieter Während das Start-up den Rückzug antritt, forcieren andere Technologiekonzerne die Kommerzialisierung ihrer KI-Dienste. OpenAI testet derzeit offiziell Werbeeinblendungen in der kostenlosen Version von ChatGPT. Die Integration soll die immensen Rechenkosten decken, die bei der Beantwortung von täglich Millionen Nutzeranfragen anfallen. Werbetreibende können sich durch dieses Modell direkt in den Chatverlauf der Anwender einkaufen. Google wählt einen ähnlichen Weg und verwebt Anzeigen mit seinen generativen Ergebnissen. Da Suchmaschinenwerbung das fundamentale Kerngeschäft des Konzerns darstellt, adaptiert Google dieses etablierte System für die neuen KI-basierten Suchformate. Nutzer sehen bei produktbezogenen Anfragen entsprechende Shopping-Links direkt neben oder in den zusammenfassenden Texten der KI. Meta verfolgt hingegen einen indirekten Ansatz bei der Monetarisierung. Der Konzern schaltet zwar keine klassischen Banner in den Konversationen seiner Meta AI, wertet jedoch die Inhalte der Chatverläufe systematisch aus. Diese gewonnenen Daten fließen in die Algorithmen ein, um die Werbeanzeigen in den regulären Feeds von Instagram und Facebook noch präziser auf die Interessen der Nutzer zuzuschneiden.

    Kommerzfreier Raum als Verkaufsargument Die unterschiedlichen Herangehensweisen spalten den Markt sichtbar in zwei Lager. Anbieter wie Anthropic nutzen die Werbe-Offensive von OpenAI mittlerweile aktiv für das eigene Marketing. Das Unternehmen hinter dem Sprachmodell Claude positioniert seinen Dienst explizit als ablenkungsfreien Ort und wirbt offensiv mit einer ruhigen Arbeitsumgebung. Dieser Konflikt gipfelte im Februar in einem Super-Bowl-Werbespot, in dem Anthropic die zunehmend mit Anzeigen überladene Benutzeroberfläche der Konkurrenz parodierte. OpenAI-Chef Sam Altman reagierte öffentlich auf die Kritik, was die wachsende Spannung zwischen den verschiedenen Geschäftsmodellen in der Branche unterstreicht. Ob der Verzicht auf Anzeigen für Perplexity langfristig wirtschaftlich tragfähig bleibt, hängt nun maßgeblich von den Verkaufszahlen der Pro-Lizenzen ab. Anzeige

  • Gemini generiert nun komplette Songs in Sekunden, ausprobiert!

    Google AI Music Cover

    Nano Banana

    Kurzfassung

    Quellen

    Google hat das KI-Musikmodell Lyria 3 in seine Gemini-App integriert, womit Nutzer per Text, Foto oder Video 30-sekündige Songs erstellen können.
    Die Bedienung erfolgt simpel über das Tools-Menü, wo verschiedene Musik-Stile, eigene Texte oder Medien als Vorlage dienen.
    Praxistests zeigen eine hohe Qualität, etwa bei der detailgetreuen Generierung eines 90er-Jahre-Raps oder eines epischen Gaming-Soundtracks.
    Zudem öffnet Google die Technologie über weitreichende APIs für Entwickler, um KI-Musik künftig in Spiele oder kommerzielle Medien einzubinden.

    A new way to express yourself: Gemini can now create music (Google Blog)

    Lyria 3 | Music Generation comes to Gemini (Google / YouTube)

    Google integriert das KI-Modell Lyria 3 in seine Gemini-App und ermöglicht damit die direkte Erzeugung von Musik. Anwender erstellen ab sofort durch die Eingabe von Texten, Fotos oder Videos vollständige, 30-sekündige Audiotracks.

    Multimodale Audio-Generierung Das zugrundeliegende Modell Lyria 3 verarbeitet nicht mehr ausschließlich strukturierte Textbefehle. Die Software analysiert hochgeladene Fotografien oder kurze Videoclips und extrahiert daraus visuelle Merkmale. Daraus leitet der Algorithmus dann passende musikalische Parameter wie Tempo, Instrumentierung und Stimmung ab. Diese multimodale Herangehensweise ersetzt die Notwendigkeit, komplexe musiktheoretische Vorgaben per Hand einzutippen. Der Algorithmus liefert nach wenigen Sekunden Berechnungszeit einen fertigen, 30 Sekunden langen Audiotrack. Das System erzeugt die Musikstücke vollständig autonom, eigene Liedtexte oder Melodien sind nicht erforderlich. Anzeige Bedienung und Praxisbeispiele Die Handhabung innerhalb der App ist simpel gestaltet. Anwender aktivieren die Funktion im Chatfenster über das „Tools“-Menü unter dem Punkt „Musik erstellen“, wo sich auch der Bildgenerator befindet. Die generierte Audioqualität erreicht dabei laut ersten Tests ein überraschend hohes Niveau. Für die Erstellung stehen diverse optionale Parameter zur Verfügung. Nutzer haben die Wahl aus 16 vorgefertigten Stil-Remixen und können zusätzlich eigene Textanweisungen, detaillierte Liedtexte sowie Fotos oder Videos als Ausgangsmaterial hochladen. + Quelle: Google Die Kombination dieser Eingaben liefert präzise Ergebnisse. Fordert ein Nutzer beispielsweise als Grundstil einen „90er Rap“ an und ergänzt den simplen Textbefehl, über künstliche Intelligenz zu rappen, liefert das System einen passenden, authentisch wirkenden Hip-Hop-Track inklusive Vocals. Your browser does not support the audio element.

    Hip Hop AI

    Copy

    rappe über „AI“

    Prompt vollständig anzeigen

    Auch komplexe und sehr spezifische Vorgaben setzt die Software um. Ein Befehl für einen orchestralen „World of Warcraft“-Soundtrack rund um das deutsche Twitch-Streamer-Projekt „Sauercrowd“ im Hardcore-Modus führt zu einem stimmigen Epic-Musikstück. Die KI integriert das geforderte Wort „Sauercrowd“ dabei fehlerfrei in den selbst generierten Liedtext und beachtet den Kontext. Your browser does not support the audio element.

    WoW Sauercrowd Test

    Copy

    Erstelle ein epischen World of Warcraft Soundtrack. Der Titel lautet „Sauercrowd“ und das Wort muss auch im Song vorkommen. Kontext: Sauercrowd ist ein deutsches World of Warcraft Projekt wo ganz viele Twitch Streamer WoW im Hardcore Mode durchspielen. Erstelle entsprechend einen epischen Soundtrack mit Text.

    Prompt vollständig anzeigen

    Architektur und Schnittstellen Technisch baut Lyria 3 auf den bisherigen Audio-Forschungsarbeiten von Google DeepMind auf. Die Architektur zielt darauf ab, typische Artefakte bei der KI-gestützten Klangerzeugung zu minimieren und eine konsistente Audioqualität über die gesamte Laufzeit zu halten. Neben der Integration in die App öffnet der Konzern die Technologie für den professionellen Einsatz. Softwareentwickler greifen über die Gemini API und die Cloud-Plattform Vertex AI auf das Modell zu. Dies ermöglicht die Einbettung der Echtzeit-Musikgenerierung in externe Programme, beispielsweise für die dynamische Vertonung von Videospielen oder kommerziellen Medienproduktionen. Die Verteilung der neuen Audio-Funktionen erfolgt ab sofort schrittweise an alle Nutzer der Gemini-App. Zu den genauen Preiskonditionen für die API-Nutzung durch externe Entwickler machte das Unternehmen noch keine Angaben. Anzeige

  • Manus Agents: Neue Funktion ermöglicht komplexe KI-Aufgaben per Chat-App

    Das KI-Startup Manus hat eine neue Funktion namens „Manus Agents“ vorgestellt, mit der Nutzer den KI-Agenten direkt in Messenger-Apps verwenden können.

    Der Artikel Manus Agents: Neue Funktion ermöglicht komplexe KI-Aufgaben per Chat-App erschien zuerst auf The Decoder.

  • Manus Agents bringt persönliche KI-Assistenten direkt in die Messenger

    Ein Manus Agent wählt WhatsApp

    Nano Banana

    Kurzfassung

    Quellen

    Manus hat seinen vollwertigen KI-Assistenten „Manus Agents“ direkt in den Messenger Telegram integriert.
    Die Software verfügt über ein Langzeitgedächtnis und passt sich dem Schreibstil sowie den Vorlieben des Anwenders an.
    Über simple Text- oder Sprachnachrichten lassen sich komplexe Aufgaben wie das Erstellen von Webseiten oder Präsentationen steuern.
    Das System greift für diese Arbeitsschritte im Hintergrund nahtlos auf verknüpfte Dienste wie Google Mail, Kalender oder Notion zu.

    Manus in Ihrem Chat: Ihr persönlicher Agent, überall wo Sie sind (Manus Agents für Telegram)

    Introducing Manus Agents (X-Post von @ManusAI)

    Das KI-Unternehmen Manus integriert seine vollumfänglichen Assistenzsysteme ab sofort direkt in Messenger-Dienste. Den Anfang macht die Plattform Telegram, wo Nutzer komplexe digitale Aufgaben über ein einfaches Chatfenster an ihren persönlichen Agenten delegieren. Voller Funktionsumfang im Messenger Der Dienst namens „Manus Agents“ bringt die kompletten Fähigkeiten der KI in die Chat-App. Das System agiert dabei nicht nur als simpler Chatbot, der auf den aktuellsten Befehlt reagiert. Manus Agents nutzt eine durchgehende Speicherung der Sitzungsdaten. Dadurch analysiert die Software den Kontext und plant eigenständig mehrstufige Arbeitsschritte im Hintergrund. Anwender können per Textnachricht Präsentationen erstellen, Webseiten programmieren oder Bilder generieren lassen. Die KI greift für diese Aufgabenstellungen direkt auf externe Programme zu. Nutzer verknüpfen dafür beispielsweise Google Mail, Kalender oder Notion. Ein zentraler Bestandteil der Neuerung ist das integrierte Langzeitgedächtnis. Der Agent merkt sich den Schreibstil, den Tonfall und die persönlichen Vorlieben des Anwenders. Das System wendet diese Präferenzen automatisch auf zukünftige Aufträge an.

    Twitter Beitrag – Cookies links unten aktivieren.

    Introducing Manus Agents — your personal Manus, now inside your chats. 👉🏻Long-term memory. Remembers your style, tone, and preferences.👉🏻Full Manus power. Create videos, slides, websites, images from one message.👉🏻Your tools, connected. Gmail, Calendar, Notion, and more.… pic.twitter.com/QVro5O9qP3 — Manus (@ManusAI) February 16, 2026 Einfache Einrichtung per QR-Code Die Koppelung erfordert keine technischen Vorkenntnisse. Nutzer öffnen den Bereich „Agents“ in ihrem bestehenden Manus-Konto. Dort scannen sie einen QR-Code mit dem Smartphone. Die Verbindung zu Telegram erfolgt direkt im Anschluss. Komplexe Konfigurationsdateien oder Programmierschnittstellen fallen bei diesem Vorgang komplett weg. Manus grenzt die Zugriffsrechte des Agenten strikt ab. Die KI liest ausschließlich die direkten Nachrichten in ihrem eigenen Chatverlauf. Sie hat technisch keinen Zugriff auf andere Unterhaltungen, Gruppen oder Kontakte des Nutzers. Anzeige Sprachsteuerung und Dateiverarbeitung Der Assistent verarbeitet innerhalb von Telegram unterschiedliche Medienformate. Nutzer senden direkt Sprachnachrichten, Bilder oder Textdokumente in den Chat. Die KI transkribiert Sprachansagen sofort und interpretiert die Absicht dahinter. Danach führt das System die notwendigen Aktionen ohne manuelle Dateiverwaltung aus. Die Funktion steht ab sofort allen Anwendern unabhängig von ihrem Abonnement zur Verfügung. Telegram ist laut Entwickler dabei nur der erste Schritt für diese Integration. Das Unternehmen bereitet bereits die Anbindung weiterer bekannter Plattformen vor. Damit verlagert Manus die Steuerung komplexer Software direkt in alltägliche Kommunikationsmittel.

  • OpenAI mit starken Änderungen für die Deep Research Funktion

    Sam Altman benutzt Deep Research

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI stellt die technische Basis von Deep Research auf das leistungsfähigere Modell GPT-5.2 um. Nutzer können nun externe Apps via Connectors verbinden und spezifische Webseiten als exklusive Quellen definieren. Der Rechercheprozess lässt sich in Echtzeit steuern und die Ergebnisse werden in einer neuen Vollbildansicht präsentiert.

    OpenAI (X): Deep research powered by GPT-5.2

    OpenAI (X): Feature-Liste Deep Research

    OpenAI Help Center: ChatGPT Release Notes

    OpenAI: Introducing deep research

    OpenAI Help Center: GPT-5.2 in ChatGPT

    OpenAI hat ein umfangreiches Update für die Deep-Research-Funktion in ChatGPT veröffentlicht. Die automatisierte Recherche-Umgebung basiert ab sofort auf dem Modell GPT-5.2 und ermöglicht erstmals die direkte Anbindung externer Applikationen sowie eine gezielte Steuerung laufender Suchprozesse. Modellwechsel als technische Basis Kern der Aktualisierung ist die Umstellung des zugrundeliegenden Modells auf GPT-5.2. Bislang nutzte der „Deep Research“-Modus – ein Agenten-System, das eigenständig komplexe Suchaufträge im Web durchführt und synthetisiert – eine modifizierte Version der Vorgängergeneration. Mit dem Wechsel auf GPT-5.2 verspricht der Hersteller eine signifikant höhere Logik-Leistung bei der Verknüpfung disparater Informationen. In der Praxis soll dies die Fehlerquote bei der Zusammenfassung technischer oder wissenschaftlicher Quellen reduzieren. Während frühere Versionen dazu neigten, bei widersprüchlichen Quellen Details zu halluzinieren, soll die neue Architektur den Kontext besser gewichten. Anzeige Erweiterte Quellensteuerung und App-Integration Funktional markiert das Update einen Schritt weg vom reinen Web-Crawler hin zu einem integrativen Recherche-Werkzeug. Anwender können nun spezifische Webseiten definieren, auf die sich die Recherche beschränken soll („Site-Specific Search“). Dies ist besonders relevant für Szenarien, in denen nur verifizierte Fachportale oder interne Dokumentationen als Wissensbasis dienen dürfen. Zusätzlich führt OpenAI „App Connectors“ ein. Diese Schnittstellen erlauben es dem System, nicht nur öffentliche Webdaten, sondern auch Informationen aus verknüpften Drittanbieter-Anwendungen in den Recherchebericht einzubeziehen. Dies deutet auf eine tiefere Integration in bestehende Software-Ökosysteme hin, wirft jedoch zwangsläufig Fragen zum Datenschutz und zur Zugriffskontrolle auf, die Nutzer vor der Aktivierung prüfen sollten. + Quelle: OpenAI Interaktion in Echtzeit und Darstellung Die Benutzerführung wurde dahingehend überarbeitet, dass der Rechercheprozess transparenter abläuft. Anstatt auf ein fertiges Ergebnis zu warten, können Nutzer den Fortschritt nun in Echtzeit verfolgen und intervenieren. Erkennt das System beispielsweise eine falsche Fährte, lässt sich der Prozess unterbrechen, um mit neuen Parametern oder Quellenangaben nachzusteuern. Abschließend ändert sich die Präsentation der Ergebnisse: Die generierten Reports werden nun in einer Vollbildansicht dargestellt, was die Lesbarkeit umfangreicher Textmengen und Tabellen auf Desktop-Monitoren verbessern soll. Mit diesen Anpassungen zielt OpenAI offensichtlich darauf ab, das Tool stärker in professionellen Arbeitsabläufen zu verankern, wo Präzision und Nachvollziehbarkeit Vorrang vor Geschwindigkeit haben. + Quelle: OpenAI

  • OpenAI startet Testphase für Werbung in ChatGPT

    ChatGPT zeigt jetzt Werbung, zunächst nur in den USA und für Nutzer der kostenlosen und „Go“-Stufe. Die Unabhängigkeit der Chat-Antworten sollen die Anzeigen in keinem Fall beeinflussen.

    Der Artikel OpenAI startet Testphase für Werbung in ChatGPT erschien zuerst auf The Decoder.