Schlagwort: Nutzer

  • Google Gemini nun mit Shopping-Agent und Werbung

    Ein Google Bild mit Shopping

    Google

    Kurzfassung

    Quellen

    Google führt das Universal Commerce Protocol ein, um KI-Agenten das autonome Einkaufen und den Abruf von Echtzeit-Produktdaten zu ermöglichen. Nutzer können ab sofort Produkte von Partnern wie Walmart und Shopify direkt innerhalb der Gemini-App und der Google Suche bezahlen. Um die KI-Suche profitabel zu machen, integriert Google nun kontextbezogene Shopping-Anzeigen direkt in die generierten Chat-Antworten.

    TechCrunch: Google announces a new protocol to facilitate commerce using AI agents.

    Google Developers Blog: Under the Hood: Universal Commerce Protocol (UCP).

    9to5Google: Gemini app and Google AI Mode adding product checkout.

    Shopify News: Shopify connects any merchant to every AI conversation.

    Google definiert mit dem Universal Commerce Protocol neu, wie KI-Modelle und Online-Shops interagieren. Nutzer können Produkte künftig direkt im Chat kaufen, während Händler sich auf eine Ära autonomer KI-Käufer einstellen müssen. Das Ende der klassischen Produktsuche Google läutet die Ära des „Agentic Commerce“ ein. Künstliche Intelligenz soll nicht mehr nur Informationen liefern, sondern komplexe Aufgaben wie den Wocheneinkauf aktiv erledigen. Das Fundament hierfür bildet das neu vorgestellte Universal Commerce Protocol (UCP). Dieser offene Standard ermöglicht es KI-Agenten, Produktinformationen in Echtzeit abzurufen und Transaktionen selbstständig durchzuführen. Händler müssen ihre Daten nicht mehr für jede KI einzeln aufbereiten. Das Protokoll standardisiert den Austausch zwischen Shops und verschiedenen KI-Modellen. Die Verwaltung des Standards übernimmt die Linux Foundation, was eine breite Akzeptanz in der Industrie sichern soll. Google positioniert UCP als die Lingua Franca für den maschinellen Handel der Zukunft. Anzeige Checkout direkt im Chat Nutzer profitieren in der Gemini-App und im „AI Mode“ der Google-Suche von neuen Kaufoptionen. Der Checkout-Prozess findet unmittelbar in der Konversation statt, ohne dass die Plattform verlassen werden muss. Ein Medienbruch entfällt, was die Hürde zwischen Produktentdeckung und Kaufabschluss signifikant senkt. Die hinterlegten Zahlungsdaten im Google-Konto ermöglichen dabei eine reibungslose Abwicklung. Zum Start kooperiert Google mit US-Handelsriesen wie Walmart und Wayfair sowie der E-Commerce-Plattform Shopify. Shopify-Händler erhalten damit automatisch Zugang zu Millionen von potenziellen KI-Konversationen. Walmart nutzt die Partnerschaft, um personalisierte Nachbestellungen direkt über Gemini abzuwickeln, was die Kundenbindung im KI-Zeitalter stärken soll. + Quelle: Google Monetarisierung durch Shopping-Ads Google monetarisiert die KI-Suche mit diesem Schritt aggressiver. Relevante Shopping-Anzeigen erscheinen künftig direkt in den Antworten von Gemini. Sucht ein Nutzer nach spezifischen Produkten wie Laufschuhen, werden passende Kaufvorschläge inklusive Preis und Bild eingeblendet. Dies markiert einen wichtigen Schritt für Google, um sinkende Einnahmen aus der klassischen Suche zu kompensieren. Für Werbetreibende eröffnet sich ein Kanal abseits der Suchleiste. Die Integration erfolgt kontextbezogen und soll sich organisch in den Dialog mit der KI einfügen. Kritiker dürften jedoch genau beobachten, wie stark die kommerziellen Interessen die Neutralität der KI-Antworten beeinflussen.

  • Gmail bekommt durch Gemini 3 grandiose Funktionen

    Ein Google Roboter schaut sich GMAIL an

    Nano Banana

    Kurzfassung

    Quellen

    Google integriert das Gemini-3-Modell tiefgreifend in Gmail und führt eine KI-gesteuerte Inbox-Ansicht für eine bessere Übersicht ein. Zentrale Funktionen wie automatische Zusammenfassungen und die Schreibhilfe Help Me Write sind ab sofort für alle drei Milliarden Nutzer kostenlos verfügbar. Eine neue intelligente Suche ermöglicht es Anwendern, ihrem Posteingang komplexe Fragen in natürlicher Sprache zu stellen und präzise Antworten zu erhalten. Für professionelle Korrekturwerkzeuge und fortgeschrittene KI-Analysen bleibt weiterhin ein kostenpflichtiges Abonnement von Google AI Pro oder Ultra erforderlich.

    Google Official Blog – Gmail is entering the Gemini era

    TechCrunch – Gmail debuts a personalized AI inbox, AI Overviews in Search, and more

    The Verge – Google Gmail AI Inbox Overviews

    Wired – Google’s AI Inbox for Gmail is here

    Google verzahnt Gmail ab heute tiefgreifend mit dem Gemini-3-Modell. Nutzer erhalten eine KI-gesteuerte Inbox-Ansicht und intelligente Zusammenfassungen, um die wachsende Flut an täglichen Nachrichten effizienter zu bewältigen und wertvolle Zeit bei der digitalen Korrespondenz zu sparen. Die neue KI-Inbox und intelligente Priorisierung Google führt mit der sogenannten AI Inbox eine grundlegend neue Ansicht für den Posteingang ein. Das System nutzt künstliche Intelligenz, um eingehende Nachrichten nach ihrer Dringlichkeit und Relevanz zu gewichten. Wichtige Termine, Rechnungen oder persönliche Anfragen rücken automatisch in den Fokus, während weniger relevante Mitteilungen im Hintergrund bleiben. Die Funktion „Catch me up“ bietet zudem eine schnelle Übersicht über aktuelle Aktivitäten. Hier werden Informationen zu Bestellungen, Lieferungen oder bevorstehenden Reservierungen kompakt aufbereitet. Aktuell befindet sich dieses Design in einer Testphase mit ausgewählten Nutzern in den USA, bevor eine breitere Veröffentlichung folgt.

    KI-Werkzeuge für alle Nutzer kostenlos Eine strategische Kehrtwende vollzieht Google bei der Verfügbarkeit seiner Werkzeuge. Funktionen wie „Help Me Write“ und personalisierte Antwortvorschläge stehen ab sofort allen drei Milliarden Gmail-Anwendern kostenlos zur Verfügung. Zuvor waren diese Hilfsmittel zahlenden Abonnenten vorbehalten. Die KI erstellt auf Wunsch komplette E-Mail-Entwürfe basierend auf kurzen Stichworten oder dem bisherigen Gesprächsverlauf. Dabei lernt das System den individuellen Schreibstil des Nutzers kennen, um weniger generisch zu wirken. Auch die automatische Zusammenfassung langer E-Mail-Verläufe, sogenannte Threads, gehört nun zum Standardumfang für alle Konten. Anzeige Conversational Search und technischer Unterbau Die Suche innerhalb des Postfachs erfährt durch Gemini 3 eine massive Aufwertung. Anwender können ihrem Posteingang Fragen in natürlicher Sprache stellen, etwa nach einem spezifischen Angebot eines Handwerkers aus dem Vorjahr. Die KI durchsucht die gesamte Historie und liefert eine präzise Antwort statt einer bloßen Liste von Suchtreffern. Für komplexe Abfragen und fortgeschrittene Korrekturhilfen wie das „Proofread“-Tool bleibt jedoch ein Abonnement von Google AI Pro oder Ultra notwendig. Diese Werkzeuge optimieren nicht nur die Grammatik, sondern passen auch den Tonfall der Nachricht an. Google betont dabei den Einsatz einer geschützten Verarbeitungsumgebung, um die Privatsphäre der Nutzerdaten trotz der tiefen KI-Analyse zu gewährleisten.

  • ChatGPT Health ist dein neuer Hausarzt!

    Patient überreicht Krankenakte Sam Altman

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI startet mit ChatGPT Health einen neuen Bereich zur Analyse von Krankenakten und Fitness-Daten. Nutzer können Dienste wie Apple Health verknüpfen, um Vitalwerte und Laborbefunde verständlich erklären zu lassen. Die Funktion ist strikt von normalen Chats getrennt, um höhere Datenschutzstandards für Gesundheitsdaten zu gewährleisten. Interessierte Nutzer können sich ab sofort auf eine Warteliste für den neuen Service setzen lassen.

    OpenAI – Introducing ChatGPT Health

    The Verge – OpenAI launches ChatGPT Health

    Reuters – OpenAI connects medical records

    9to5Mac – Apple Health integration launches

    Axios – New ChatGPT Health tab

    OpenAI steigt tief in den Gesundheitssektor ein und präsentiert mit ChatGPT Health eine dedizierte Plattform zur Analyse medizinischer Daten. Nutzer können ab sofort einen Platz auf der Warteliste reservieren, um Krankenakten und Fitness-Apps intelligent zu verknüpfen. Zentralisierung von Gesundheitsdaten Die neue Funktion agiert als spezialisierter Bereich innerhalb der bekannten Oberfläche. Anwender erhalten die Möglichkeit, externe Datenquellen direkt mit der künstlichen Intelligenz zu verbinden. Dazu gehören neben klassischen Krankenakten auch Schnittstellen zu gängigen Wellness- und Fitness-Anwendungen. Besonders die Integration von Apple Health steht zum Start im Fokus der Entwicklung. Durch diese Bündelung greift die KI nicht mehr nur auf allgemeines Trainingswissen zu. Das System kontextualisiert individuelle Gesundheitsdaten und erstellt darauf basierend präzisere Antworten. Wer seine Vitalwerte über Smartwatches trackt, kann diese Informationen nun nahtlos in die Analyse einfließen lassen. OpenAI schließt damit eine Lücke zwischen statischen Gesundheitsdaten und aktiver Beratung. + Quelle: OpenAI Konkrete Analyse von Befunden und Vitalwerten Ein Kernfeature von ChatGPT Health ist die Interpretation komplexer medizinischer Dokumente. Nutzer laden Laborberichte oder Testergebnisse hoch und erhalten eine verständliche Zusammenfassung der Werte. Das System erklärt medizinische Fachbegriffe und ordnet die Ergebnisse in einen allgemeinen Kontext ein, ohne dabei den Arztbesuch zu ersetzen. Neben der reinen Befundanalyse bietet die Plattform Unterstützung bei der Ernährungsplanung. Die KI nutzt die verknüpften Aktivitätsdaten, um Diätvorschläge dynamisch an den tatsächlichen Kalorienverbrauch anzupassen. Anstatt generischer Ernährungspläne erstellt der Algorithmus Empfehlungen, die auf dem realen Bewegungsverhalten des Nutzers basieren. Anzeige Datenschutz in einer spezialisierten Umgebung OpenAI trennt ChatGPT Health bewusst von der Standard-Konversation ab. Die Verarbeitung sensibler Gesundheitsdaten (PHI – Protected Health Information) erfordert höhere Sicherheitsstandards als herkömmliche Chat-Anfragen. Das Unternehmen betont die Implementierung strikter Protokolle, um die Vertraulichkeit der medizinischen Historie zu gewährleisten. Die Entscheidung für einen separaten „Health Tab“ signalisiert auch visuell den Wechsel in einen sensibleren Modus. Nutzer behalten die Kontrolle darüber, welche Daten geteilt und wie lange diese gespeichert werden. Mit diesem Schritt positioniert sich OpenAI als ernstzunehmender Akteur im digitalen Gesundheitswesen, der über reine Textgenerierung hinausgeht. Hat noch jemand ein schlechtes Gefühl?

  • Google TV integriert Gemini: Die Fernbedienung wird bald überflüssig

    Ein Google TV Fernseher

    Nano Banana

    Kurzfassung

    Quellen

    Google integriert die KI-Modelle Gemini Nano und Veo direkt in das Betriebssystem Google TV. Die neue Sprachsteuerung ermöglicht tiefgreifende Änderungen an Systemeinstellungen ohne manuelle Navigation durch komplexe Menüs. Nutzer von TCL-Geräten erhalten zuerst Funktionen zur intelligenten Verwaltung und kreativen Bearbeitung ihrer persönlichen Fotogalerien. Die lokale Verarbeitung der Daten auf dem Fernseher verbessert die Reaktionsgeschwindigkeit und erhöht den Schutz der Privatsphäre.

    Google Blog: Google TV at CES 2026

    TechCrunch: Google previews new Gemini features for Google TV

    t3n.de: KI auf dem Fernseher: Google kündigt neue Gemini-Funktionen an

    Heise Online: CES: Google TV bekommt neue Gemini-Funktionen

    Golem.de: Bild- und Videogenerierung: Google TV wird zur KI-Kreativzentrale

    Google integriert die Sprach-KI Gemini tiefer in das Betriebssystem Google TV. Auf der Technikmesse CES 2026 zeigt der Konzern, wie Nutzer künftig per Sprachbefehl komplexe Systemeinstellungen ändern und persönliche Fotos mithilfe neuer Bildmodelle direkt am Fernseher bearbeiten können. Natürliche Sprache ersetzt verschachtelte Menüs Die Steuerung des Fernsehers erfolgt zunehmend über natürliche Sprache statt durch das Klicken in Untermenüs. Nutzer können Gemini mitteilen, dass das Bild zu dunkel oder der Dialog schwer verständlich ist. Die KI analysiert diese Anfragen und passt die Helligkeit oder die Audioprofile selbstständig an, ohne dass der Zuschauer den aktuellen Film verlassen muss. Zusätzlich wertet Google die Suchergebnisse auf der Plattform optisch auf. Anstatt rein textbasierter Antworten liefert Gemini nun visuelle Frameworks, die Bilder, Videos und Echtzeit-Sportdaten kombinieren. Komplexe Themen bereitet die KI in sogenannten Deep Dives auf, die interaktive Übersichten für die gesamte Familie bieten. Anzeige Kreativ-Werkzeuge für das Wohnzimmer Mit der Integration der Modelle Nano Banana und Veo verwandelt Google den Fernseher in eine Station für Medienbearbeitung. Während Nano Banana als kompaktes Modell für die lokale Bildbearbeitung dient, ermöglicht Veo die Generierung kurzer Videosequenzen. Nutzer können so persönliche Aufnahmen aus ihrer Google Photos Bibliothek per Sprachbefehl in cineastische Diashows oder KI-generierte Kunstwerke verwandeln. Die Zusammenarbeit mit dem Hersteller TCL steht hierbei im Fokus. Diese Geräte erhalten die neuen Funktionen als erste, wobei die Verwaltung der Fotogalerien eine zentrale Rolle spielt. Über einfache Befehle lassen sich Momente nach Personen oder Ereignissen filtern, ohne manuell durch hunderte Bilder scrollen zu müssen. Lokale Verarbeitung und Datenschutz Ein wesentlicher Teil der Rechenleistung wird direkt auf der Hardware ausgeführt. Hierfür nutzt Google das Modell Gemini Nano, das speziell für die Ausführung auf Endgeräten ohne ständige Cloud-Anbindung entwickelt wurde. Dieser Ansatz soll nicht nur die Reaktionsgeschwindigkeit erhöhen, sondern auch die Privatsphäre der Nutzer schützen, da sensible Bilddaten das Gerät seltener verlassen. Der Rollout der neuen Funktionen beginnt unmittelbar auf ausgewählten TCL-Modellen in den USA. In den folgenden Monaten plant Google die Ausweitung auf weitere Marken sowie auf Projektoren, die mit Google TV laufen. Voraussetzung für die Nutzung ist ein aktuelles Betriebssystem ab Version Android TV OS 14.

  • Amazon öffnet Alexa Plus Webversion für bestimmte Nutzer im Early Access

    Amazon hat die Webversion seines KI-Assistenten Alexa Plus für alle Nutzer im Early Access freigegeben.

    Der Artikel Amazon öffnet Alexa Plus Webversion für bestimmte Nutzer im Early Access erschien zuerst auf The Decoder.

  • ChatGPT-Hardware soll primär über Sprache gesteuert werden und emotionaler klingen

    OpenAI verbessert seine Audio-Modelle, damit Nutzer künftig mit der geplanten ChatGPT-Hardware sprechen statt tippen.

    Der Artikel ChatGPT-Hardware soll primär über Sprache gesteuert werden und emotionaler klingen erschien zuerst auf The Decoder.

  • Der digitale Striptease: Wenn Chatbots keine Grenzen mehr kennen

    Frau in der Bibliothek

    Nano Banana

    Kurzfassung

    Quellen

    Sicherheitsfilter führender KI-Systeme von Google und OpenAI werden durch gezielte Eingaben systematisch umgangen. Nutzer erstellen mit diesen Methoden täuschend echte Bikini-Deepfakes aus gewöhnlichen Alltagsfotos von Frauen. Die technische Qualität der Manipulationen hat Ende 2025 ein Niveau erreicht, das eine manuelle Erkennung fast unmöglich macht. Der politische Druck wächst, während Konzerne versuchen, die Missbrauchswelle durch neue Wasserzeichen-Technologien einzudämmen.

    Wired: Google’s and OpenAI’s Chatbots Can Strip Women in Photos Down to Bikinis

    Golem.de: ChatGPT und Gemini: Chatbots erstellen Bikini-Deepfakes von bekleideten Frauen

    t3n.de: Google und OpenAI: Neue Bild-KIs ignorieren Nacktfilter schon bei simplen Prompts

    Mathrubhumi English: AI safety fails: How users are jailbreaking Google, OpenAI for bikini deepfakes

    Google und OpenAI kämpfen mit einer massiven Umgehung ihrer Sicherheitsfilter bei der Bildgenerierung. Nutzer missbrauchen aktuelle Modelle systematisch, um bekleidete Frauen in freizügige Bikini-Fotos zu verwandeln, was neue Fragen zur Wirksamkeit digitaler Schutzmaßnahmen aufwirft. Filter-Umgehung leicht gemacht Aktuelle Analysen zeigen erhebliche Schwachstellen in den Schutzmechanismen führender Systeme wie ChatGPT und Gemini. Angreifer nutzen gezielte Eingabemanöver, im Fachjargon Jailbreaks genannt, um die internen Sperren der Anbieter auszuhebeln. Dabei reichen oft schon leicht modifizierte Anweisungen aus, um die Künstliche Intelligenz zur Erstellung nicht-konsensualer Inhalte zu bewegen. Die Technologie erkennt zwar meist explizite Nacktheit, scheitert jedoch bei der Abgrenzung zu leicht bekleideten Darstellungen. So generieren die Modelle aus gewöhnlichen Alltagsfotos täuschend echte Bilder von Frauen in Bademode. Dies geschieht ohne das Einverständnis der abgebildeten Personen und stellt eine neue Stufe digitaler Belästigung dar. Anzeige Grenzen der Sicherheitsmodelle Sowohl Google als auch OpenAI betonen regelmäßig ihre Milliardeninvestitionen in die Sicherheit ihrer Systeme. Die aktuelle Welle an manipulierten Inhalten demonstriert jedoch, dass die automatisierten Filter der ständigen Weiterentwicklung von Umgehungstechniken kaum standhalten. Experten kritisieren, dass die Sicherheitsmechanismen oft nur auf Schlagworte reagieren, statt den Kontext einer Anfrage tiefgreifend zu verstehen. Das Problem verschärft sich durch die hohe Qualität der generierten Medien. Während frühere Deepfakes, also durch KI manipulierte Bilder oder Videos, oft an unnatürlichen Details erkennbar waren, erreichen die Ergebnisse Ende 2025 eine fotorealistische Präzision. Dies erschwert die manuelle Moderation und die nachträgliche Identifizierung von Fälschungen massiv. Rechtliche und gesellschaftliche Folgen Der politische Druck auf die Tech-Konzerne nimmt weltweit drastisch zu. Neue Gesetzesinitiativen zielen darauf ab, Plattformbetreiber stärker für die durch ihre Werkzeuge erstellten Inhalte haftbar zu machen, wenn diese die Persönlichkeitsrechte verletzen. Erste Unternehmen reagieren bereits mit der Implementierung digitaler Wasserzeichen, um KI-generierte Medien dauerhaft zu kennzeichnen. Die einfache Zugänglichkeit dieser Werkzeuge senkt die Hemmschwelle für Missbrauch im privaten Umfeld massiv. Längst sind nicht mehr nur Prominente betroffen, sondern zunehmend auch Privatpersonen, deren Fotos aus sozialen Netzwerken als Vorlage dienen. Ein ausgewogenes Verhältnis zwischen kreativer Freiheit und dem Schutz der Privatsphäre bleibt die zentrale Herausforderung der Branche.

  • ChatGPT Images 1.5: Besser als Nano Banana Pro?

    Ein Hund und GPT Image 1.5

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI veröffentlicht ChatGPT Images 1.5 mit drei neuen Qualitätsstufen (Low, Medium, High) zur besseren Kontrolle von Ressourcen und Details. Das Update führt native Seitenverhältnisse wie 1:1, 3:2 und 2:3 ein, die ohne Verzerrungen funktionieren. Ein neuer Prompting-Guide unterstützt Nutzer dabei, die präziseren Steuerungsmöglichkeiten des Modells effektiv zu nutzen. Die Funktion ist ab dem 16. Dezember 2025 für alle Plus- und Enterprise-Nutzer direkt im Chat verfügbar.

    OpenAI – The new ChatGPT Images is here

    The Verge – OpenAI’s new flagship image generator AI is here

    Mit ChatGPT Images 1.5 bringt OpenAI heute ein umfangreiches Upgrade für die interne Bildgenerierung auf den Markt. Nutzer erhalten damit deutlich mehr Kontrolle und eine bessere Bildqualität. Aber reicht es für Nano Banana Pro? Wir haben es in den Stufen „low”, „medium” und „high” direkt über Higgsfield genutzt. ANZEIGE – Flux 2 direkt auf Higgsfield ausprobieren Paradigmenwechsel bei der Bildgenerierung Lange Zeit galt bei der KI-Bildgenerierung das Prinzip „One Size Fits All“. Mit dem heutigen Release von ChatGPT Images 1.5 bricht OpenAI mit dieser Tradition. Das neue Modell ersetzt die bisherige Integration und zielt darauf ab, die Lücke zu spezialisierten Tools wie Midjourney weiter zu schließen. Der Fokus liegt dabei nicht mehr nur auf reiner Bildästhetik. Vielmehr steht die Flexibilität im Vordergrund. Anstatt für jede Anfrage die maximale Rechenleistung abzurufen, lässt sich die Generierung nun an den tatsächlichen Verwendungszweck anpassen. Dies markiert einen strategischen Wandel hin zu dynamischeren KI-Erlebnissen, bei denen der Nutzer die Regler in der Hand hält. Quelle: OpenAI Intro Drei Qualitätsstufen für effizientes Arbeiten Die wohl wichtigste Neuerung betrifft die Einführung von drei verschiedenen Rendering-Optionen. OpenAI reagiert damit auf die Kritik, dass einfache Entwürfe oft zu viele Ressourcen verbrauchten. Nutzer wählen nun vor der Generierung zwischen „Low“, „Medium“ und „High“. Die Einstellung „Low“ eignet sich primär für schnelle Iterationen und das Testen von Prompts. Die Bilder werden rasend schnell generiert, weisen aber weniger Details auf. Der Vorteil liegt in den Kosten: Diese Stufe verbraucht signifikant weniger Credits oder Nutzungslimits. „Medium“ entspricht dem bisherigen Standard und bietet eine ausgewogene Balance. Die Option „High“ hingegen fährt die volle Leistung des Modells auf. Hier werden Texturen, Lichtverhältnisse und komplexe Bildkompositionen mit maximaler Präzision berechnet. Diese Stufe ist für finale Resultate gedacht, schlägt aber auch mit dem höchsten Preis pro Bild zu Buche. Anzeige Native Formate und verbesserte Steuerung Neben der Qualitätsschraube dreht OpenAI auch an den technischen Parametern. ChatGPT Images 1.5 unterstützt nun nativ verschiedene Seitenverhältnisse, ohne dass das Bild nachträglich beschnitten oder verzerrt wirkt. Die verfügbaren Ratios decken die wichtigsten Anwendungsfälle ab: 1:1 (Quadratisch): Der Klassiker für Social Media Feeds. 3:2 (Querformat): Ideal für klassische Fotografie-Ästhetik und Blog-Header. 2:3 (Hochformat): Optimiert für mobile Bildschirme und Story-Formate. Die Einhaltung dieser Formate funktioniert deutlich zuverlässiger als in Vorgängerversionen. Das Modell versteht nun besser, wie Bildkompositionen innerhalb dieser Grenzen angeordnet werden müssen, um Motive nicht abzuschneiden. Trotzdem muss man hier Abstriche gegenüber Modellen wie Nano Banana Pro machen, welche mittlerweile auch Formate wie 16:9 oder 9:16 anbieten. + + + Quelle: OpenAI Präziseres Prompting und Hilfestellungen Ein häufiges Problem bei generativer KI bleibt die Diskrepanz zwischen Eingabe und Ergebnis. ChatGPT Images 1.5 zeigt sich hier deutlich wortgetreuer. Komplexe Anweisungen zur Platzierung von Objekten oder spezifischen Lichtstimmungen werden akkurater umgesetzt. Um Nutzern den Einstieg zu erleichtern, hat OpenAI parallel einen neuen “ Prompting Guide “ veröffentlicht. Dieser Leitfaden erklärt die optimale Syntax für das neue Modell. Es wird deutlich, dass Version 1.5 weniger auf abstrakte Umschreibungen und stärker auf klare, technische Anweisungen reagiert. Das Update unterstreicht OpenAIs Ambition, nicht nur als Text-Gigant, sondern als vollumfängliche Plattform für Medienproduktion wahrgenommen zu werden. Die Möglichkeit, Qualität gegen Kosten abzuwägen, dürfte besonders im professionellen Umfeld auf Zustimmung stoßen.

  • OpenAI erklärt Nutzern, dass Einkaufsvorschläge keine Werbung sind

    Nutzer des bezahlten ChatGPT beschwerten sich über die Einblendung „Shop for home and groceries. Connect Target“, wohl eine Aufforderung, den ChatGPT-Account mit dem OpenAI-Partner Target zu verbinden, um dort einzukaufen.

    Der Artikel OpenAI erklärt Nutzern, dass Einkaufsvorschläge keine Werbung sind erschien zuerst auf The Decoder.

  • ChatGPT feiert seinen dritten Geburtstag: Ein Rückblick

    sam altman trägt geburtstagtorte

    Nano Banana

    Kurzfassung

    Quellen

    Zum dritten Geburtstag verzeichnet ChatGPT zwar 800 Millionen wöchentliche Nutzer, steht aber durch Googles neues Modell Gemini 3 vor dem Verlust der technologischen Marktführerschaft. Trotz einer Bewertung von 300 Milliarden Dollar kämpft OpenAI mit immensen Infrastrukturkosten und einer geringen Rate an zahlenden Abonnenten. OpenAI reagiert auf den Druck mit dem Release von GPT-5.1 und dem Umbau zu einer App-Plattform, um Nutzer langfristig im Ökosystem zu halten.

    OpenAI: Ein umfassender Bericht zum 3-jährigen Jubiläum

    Scribbr: ChatGPT Release History

    TechCrunch: ChatGPT User Milestones

    Google Blog: Gemini 3 Pro Launch

    Reuters: OpenAI Financial Structure 2025

    Vor genau drei Jahren drückte OpenAI den Startknopf für eine „Research Preview“, die die Welt veränderte. Heute nutzen 800 Millionen Menschen ChatGPT, doch zum Feiern bleibt Sam Altman keine Zeit. Google ist zurück, die Kosten explodieren und der unangefochtene Marktführer kämpft plötzlich um seine technologische Vorherrschaft. Am 30. November 2022 begann alles mit einer schlichten Chat-Maske und einem unterschätzten Modell namens GPT-3.5. Was damals als Experiment startete, erreicht heute rund 10 Prozent der erwachsenen Weltbevölkerung. Doch der dritte Geburtstag von ChatGPT ist keine reine Siegesfeier. Während die Nutzerzahlen durch die Decke gehen, brennt im Hintergrund die Hütte: Google hat mit Gemini 3 technologisch gleichgezogen, wenn nicht sogar überholt, und die finanzielle Realität holt das Silicon Valley ein. + Der Urknall und der Rausch der ersten Jahre Es dauerte exakt fünf Tage, bis die erste Million Nutzer erreicht war – TikTok brauchte dafür neun Monate. Diese Geschwindigkeit war kein Hype, sondern der Beweis für eine tektonische Plattenverschiebung in der Tech-Welt. Das erste Jahr stand ganz im Zeichen des Staunens: GPT-4 brachte im März 2023 Multimodalität (Verarbeitung von Text und Bild) und bestand das Bar Exam mit Bravour. Das zweite Jahr brachte die Kommerzialisierung und strategische Tiefe. Die Integration in Apples Ökosystem im Juni 2024 öffnete die Türen zu Milliarden von iPhone-Nutzern. Gleichzeitig begann der Wettlauf um die Features: GPT-4o machte Echtzeit-Gespräche möglich und ließ die Grenze zwischen Mensch und Maschine weiter verschwimmen. OpenAI schien unantastbar, getrieben von einem „First Mover Advantage“, den Microsoft mit Milliardeninvestitionen zementierte. + Die Realität 2025: Wachstum um jeden Preis Heute, Ende 2025, lesen sich die Zahlen wie aus einem Science-Fiction-Roman. 800 Millionen Menschen nutzen ChatGPT wöchentlich. Das Unternehmen wird nach dem Einstieg von SoftBank mit 300 Milliarden Dollar bewertet. Doch diese Dominanz ist teuer erkauft. Der Infrastruktur-Hunger der KI ist unersättlich. Über 650 Milliarden Dollar sind langfristig für Server und Rechenzentren verplant, während die Einnahmen zwar auf beeindruckende 13 Milliarden Dollar jährlich (ARR) gestiegen sind, aber die Kosten nicht decken. Das Problem: Nur etwa fünf Prozent der Nutzer zahlen für ein Abo. OpenAI blutet Geld, um das Wachstum zu finanzieren. + Der 18. November: Der Tag, an dem sich alles drehte Die Party-Stimmung kippte vor knapp zwei Wochen. Am 18. November 2025 enthüllte Google Gemini 3 Pro. Die Zeiten, in denen Google der behäbige Riese war, sind vorbei. Das neue Modell integriert sich nahtlos in die Google-Suche, versteht Video und Code nativ und besitzt ein Kontext-Fenster von einer Million Token. Selbst Marc Benioff, CEO von Salesforce und jahrelanger ChatGPT-Nutzer, wechselte öffentlich die Seiten: „Der Sprung ist verrückt – Reasoning, Geschwindigkeit, Bilder. Ich gehe nicht zurück.“ Für OpenAI ist das der „Netscape-Moment“. Technologische Parität ist keine Garantie mehr für die Marktführerschaft. Das interne Projekt „Shallotpeat“ zeigt, dass man sich in San Francisco der Gefahr bewusst ist: Die Konkurrenz schläft nicht mehr, sie jagt. Anzeige Die Flucht nach vorn: GPT-5.1 und der App Store OpenAI reagiert aggressiv. Mit dem sofortigen Release von GPT-5.1 versucht man, über die „User Experience“ zu punkten, wo die reine Rechenpower nicht mehr reicht. Neue Persönlichkeits-Modi („Friendly“, „Cynical“, „Professional“) sollen die Bindung zum Nutzer emotionalisieren. Noch wichtiger ist jedoch der strategische Schwenk zur Plattform. Ähnlich wie Apple beim iPhone will OpenAI ChatGPT in ein Betriebssystem verwandeln. Partner wie Spotify, Booking.com und Figma bauen nun echte Apps direkt in den Chatbot. Der Plan: Wenn man technologisch eingeholt wird, muss man sich durch ein unverzichtbares Ökosystem unersetzbar machen. Das Ende der Alleinherrschaft Drei Jahre nach dem Start ist die naive Begeisterung einem brutalen Verdrängungswettbewerb gewichen. Wir steuern auf ein Oligopol zu, in dem sich Google, OpenAI und das stark wachsende Anthropic den Markt aufteilen. Für den Nutzer ist das die beste Nachricht: Der Konkurrenzdruck zwingt die Giganten zu Innovationen im Monatstakt. OpenAI hat das KI-Zeitalter eröffnet, aber ob sie es auch in fünf Jahren noch anführen, entscheidet sich jetzt.