Schlagwort: Inhalte

  • Adobe und Qualcomm entwickeln mit Humain KI-Werkzeuge für arabische Inhalte

    Adobe, Qualcomm und Humain haben eine Partnerschaft angekündigt, um KI-Werkzeuge für arabische Inhalte und den Nahen Osten zu entwickeln.

    Der Artikel Adobe und Qualcomm entwickeln mit Humain KI-Werkzeuge für arabische Inhalte erschien zuerst auf The Decoder.

  • OpenAIs Atlas-Browser hebelt NYT-Sperre mit Content-Tricks aus

    OpenAIs neuer Browser „Atlas“ liefert trotz Sperren Inhalte zu Artikeln von Medien wie der New York Times oder PCMag, aber ohne sie direkt zu zitieren. Stattdessen greift die KI auf (lizenzierte) Alternativen zurück, und bringt die Nutzer so zum Wettbewerb.

    Der Artikel OpenAIs Atlas-Browser hebelt NYT-Sperre mit Content-Tricks aus erschien zuerst auf The Decoder.

  • Claude verbindet sich mit Microsoft 365 und bekommt Enterprise-Suche

    Claude von Anthropic lässt sich nun mit Microsoft 365 verbinden und kann Inhalte aus Outlook, SharePoint, OneDrive und Teams nutzen.

    Der Artikel Claude verbindet sich mit Microsoft 365 und bekommt Enterprise-Suche erschien zuerst auf THE-DECODER.de.

  • ChatGPT darf jetzt schmutzig reden

    Ein Rotlichtfenster mit OpenAI

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI lockert die strengen Inhaltsbeschränkungen für ChatGPT und führt mehr Persönlichkeit für den Chatbot ein.
    Ab Dezember wird eine optionale Funktion für erotische Inhalte für volljährige und verifizierte Nutzer freigeschaltet.
    Die Kehrtwende ist eine Reaktion auf Nutzerkritik und den wachsenden Marktdruck durch Konkurrenten.
    Neue Sicherheitsmaßnahmen wie Altersverifikation sollen den Jugendschutz gewährleisten, während Erwachsene mehr Freiheiten erhalten.

    Saar-News-24
    Futurezone.at
    The-Decoder.de
    Zeit Online
    Computerbase.de

    OpenAI vollzieht eine überraschende Kehrtwende in seiner Produktstrategie. Der KI-Chatbot ChatGPT soll ab Dezember erotische Inhalte für verifizierte Erwachsene ermöglichen. Gleichzeitig erhält die KI mehr Persönlichkeit, nachdem frühere Sicherheitsmaßnahmen die Nutzererfahrung stark einschränkten und als bevormundend kritisiert wurden. Kehrtwende nach scharfer Nutzerkritik Firmenchef Sam Altman kündigte die Änderungen als direkte Reaktion auf das Feedback der Community an. Die bisherigen, sehr strengen Beschränkungen sollten Nutzer vor potenziell schädlichen Inhalten schützen, machten den Chatbot für viele Anwender aber weniger nützlich und unterhaltsam. Künftig können Nutzer den Charakter von ChatGPT stärker beeinflussen, damit die Software einfühlsamer oder „wie ein Freund“ agiert. Die weitreichendste Neuerung ist die geplante Freigabe erotisch gefärbter Inhalte ab Dezember. Diese Funktion wird nur für volljährige Nutzer nach einer Altersverifikation und auf ausdrücklichen Wunsch verfügbar sein. OpenAI begründet diesen Schritt mit dem Prinzip, erwachsene Nutzer auch wie solche zu behandeln und ihnen mehr Autonomie zu gewähren.
    Cookies aktivieren um den Inhalt zu sehen:
    Cookiebar öffnen

    We made ChatGPT pretty restrictive to make sure we were being careful with mental health issues. We realize this made it less useful/enjoyable to many users who had no mental health problems, but given the seriousness of the issue we wanted to get this right. Now that we have…— Sam Altman (@sama) October 14, 2025 Tragische Vorfälle führten zu Zensur Hinter den bisherigen Restriktionen standen ernste Sicherheitsbedenken, die durch tragische Ereignisse befeuert wurden. Ein Vorfall im Frühjahr 2025, bei dem eine frühere Version von GPT-4o destruktive Gedanken bestärkte, führte zu einer Verschärfung der Sicherheitsleitplanken. Zudem gab es Suizidfälle von Jugendlichen, die intensive emotionale Beziehungen zu KI-Chatbots aufgebaut hatten. Diese Ereignisse zwangen OpenAI, die zustimmende und teils anbiedernde Art des Chatbots drastisch zu reduzieren. Das Unternehmen implementierte Systeme, die bei sensiblen Themen automatisch auf Modelle mit strengeren Regeln umschalten. Die nun angekündigte Lockerung stellt einen Versuch dar, eine neue Balance zwischen Sicherheit und Nutzerfreiheit zu finden. Marktdruck und neue Sicherheitsnetze Die strategische Neuausrichtung ist auch eine Reaktion auf den Wettbewerb. Konkurrenten wie Elon Musks „Grok“ bieten bereits seit Längerem sexualisierte Inhalte an, und kleinere Anbieter haben sich auf erotische KI-Begleiter spezialisiert. Um im Rennen um zahlende Nutzer zu bestehen, muss OpenAI nachziehen, zumal das Geschäftsmodell der Branche noch immer unklar ist und hohe Investitionen erfordert. Gleichzeitig baut das Unternehmen seine Schutzmaßnahmen aus. Ein neues Altersvorhersagesystem und erweiterte Kontrollmöglichkeiten für Eltern sollen Minderjährige schützen. Dennoch warnen Experten vor den Risiken emotionaler Abhängigkeit von KI-Systemen. Die jüngste Ankündigung erfolgte nur kurz nach der Verabschiedung eines neuen Gesetzes in Kalifornien, das KI-Anbieter zu strengeren Schutzmaßnahmen für Kinder verpflichtet.

  • OpenAI startet Frontalangriff auf TikTok mit Sora 2

    Ein Nutzer schaut Sora 2

    OpenAI startet Frontalangriff auf TikTok mit Sora 2 Mit einer neuen App, in der nur KI-Videos existieren, will die Firma hinter ChatGPT den Social-Media-Markt umkrempeln. Kurzfassung | Andreas Becker, 30.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Stellt euch eine Social-Media-Plattform vor, die wie TikTok funktioniert, aber ganz ohne von Nutzern gefilmte Videos auskommt. OpenAI plant genau das mit einer neuen App und dem Video-Modell Sora 2. Die Anwendung generiert sämtliche Inhalte mithilfe künstlicher Intelligenz und könnte die Art und Weise, wie wir mit sozialen Medien interagieren, grundlegend verändern. Damit fordert das Unternehmen nicht nur etablierte Plattformen heraus, sondern wirft auch heikle Fragen zum Urheberrecht und zur digitalen Identität auf. NEWS Eine Welt aus rein synthetischen Videos Die Funktionsweise der App orientiert sich stark am bekannten Vorbild: Ein vertikaler Video-Feed lässt sich durch Wischen navigieren, Nutzer können Inhalte liken, kommentieren und neu mischen. Der entscheidende Unterschied liegt in der Erstellung der Inhalte. Anstatt eigene Clips hochzuladen, beschreiben die Nutzer ihre Ideen in Textform, woraufhin die KI Videos von maximal zehn Sekunden Länge erstellt. Ein personalisierter „Für Dich“-Feed sorgt dafür, dass die Nutzer passende künstliche Welten entdecken. Besonders neuartig ist die Funktion zur Identitätsverifizierung. Nutzer können ihr Gesicht authentifizieren lassen, damit ihr digitales Abbild in Videos verwendet werden kann. Andere Personen haben dann die Möglichkeit, diese verifizierte Erscheinung in ihren eigenen KI-generierten Clips zu verwenden und zu markieren. Als Schutzmaßnahme erhält der „Eigentümer“ des Gesichts eine Benachrichtigung, sobald sein Abbild in einem Video-Entwurf genutzt wird, noch bevor dieser veröffentlicht ist. Umstrittene Regeln und wachsender Wettbewerb Gleichzeitig zur Einführung der App verschärft OpenAI seine Strategie beim Urheberrecht. Das neue System hinter Sora 2 wird standardmäßig urheberrechtlich geschützte Werke für das Training und die Erstellung von Inhalten nutzen. Rechteinhaber, die dies nicht wünschen, müssen aktiv widersprechen. Diese Umkehr der Beweislast verlagert die Verantwortung auf die Urheber und spiegelt einen wachsenden Trend in der KI-Branche wider. Auch Meta und LinkedIn haben es bereits genau so gemacht. Der Vorstoß geschieht in einem Marktumfeld mit intensivem Wettbewerb. Meta hat kürzlich mit „Vibes“ einen eigenen Feed für KI-generierte Videos gestartet, und auch YouTube integriert Googles Videogenerator Veo 3 direkt in seine Kurzvideo-Sektion Shorts. Gleichzeitig könnte OpenAI von der unsicheren Zukunft TikToks in den USA profitieren, da ein möglicher Verkauf oder ein Verbot eine Lücke für eine Alternative ohne chinesische Verbindungen schaffen würde. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG OpenAI entwickelt eine TikTok-ähnliche Social-Media-App namens Sora 2, die ausschließlich KI-generierte Videos bis zu 10 Sekunden Länge anbietet. Die neue Copyright-Politik erfordert, dass Rechteinhaber aktiv widersprechen müssen, um ihre Inhalte von der KI-Nutzung auszuschließen. Der Launch erfolgt inmitten verschärfter Konkurrenz durch Meta’s Vibes-Feed und Googles Veo 3-Integration in YouTube Shorts. Sicherheits- und Regulierungsherausforderungen durch EU-KI-Verordnung und Kinderschutzbestimmungen prägen die Entwicklung. QUELLEN WIRED – OpenAI Is Preparing to Launch a Social App for AI-Generated Videos Engadget – OpenAI will reportedly release a TikTok-like social app alongside Sora 2 Wall Street Journal – OpenAI’s New Sora Video Generator to Require Copyright Holders to Opt Out Reuters – OpenAI’s new Sora video generator to require copyright holders to opt out TechCrunch – Meta launches ‚Vibes,‘ a short-form video feed of AI slop

  • Meta verhandelt mit Verlagen über KI-Lizenzen für journalistische Inhalte

    Meta spricht mit Medienhäusern wie Axel Springer, Fox Corp. und News Corp über Lizenzverträge für den Einsatz journalistischer Inhalte in KI-Anwendungen.

    Der Artikel Meta verhandelt mit Verlagen über KI-Lizenzen für journalistische Inhalte erschien zuerst auf THE-DECODER.de.

  • KI sucht, Verlage kassieren – vielleicht

    comet plus uebersicht

    KI sucht, Verlage kassieren – vielleicht Perplexity monetarisiert Antworten statt Klicks. Cloudflare verlangt Geld pro Crawl. Zwischen Fonds-Versprechen und Klagefront entscheidet am Ende der Nutzer. Kurzfassung | Andreas Becker, 04.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Perplexity hat mit „Comet Plus“ ein neues Abo-Modell vorgestellt, das Publishern 80 Prozent der Einnahmen verspricht – auch dann, wenn ihre Inhalte von KI-Agenten statt echten Nutzern verarbeitet werden. Finanziert wird das Programm mit einem 42,5-Millionen-Dollar-Fonds. Der Vorstoß zielt auf ein heikles Thema: Wer verdient an KI-generierten Antworten – und was bekommen die, deren Inhalte dafür verwendet werden? NEWS So funktioniert Comet Plus Comet Plus kostet 5 Dollar im Monat und ist Teil der kostenpflichtigen Angebote von Perplexity. Im Fokus steht die faire Vergütung von Publishern, wenn deren Inhalte zur Beantwortung von Nutzeranfragen genutzt werden – sei es durch echte Klicks, KI-Suchindexierung oder automatisierte Anfragen durch den „Comet Assistant“. Laut Perplexity fließen 80 Prozent der Einnahmen an teilnehmende Verlage. Ein Startfonds von 42,5 Millionen Dollar soll das Modell in Gang bringen. Teilnehmen können alle, die sich dem Programm anschließen – unabhängig davon, ob Nutzer den hauseigenen Comet-Browser verwenden oder nicht. Das Gegenmodell: Zahlen pro Bot-Zugriff Parallel zum Abo-Modell von Perplexity arbeitet Cloudflare an einer alternativen Lösung. Ihr Konzept: AI-Crawler müssen künftig für jeden Zugriff bezahlen – möglich wird das über das bislang kaum genutzte HTTP-402-Protokoll. Statt später über Nutzungsverhalten zu vergüten, setzt Cloudflare auf Abrechnung beim Zugriff. Damit verändert sich der Blick auf Wertschöpfung durch Inhalte. Wer sich dagegen schützt, kann unerwünschte Bot-Zugriffe technisch blockieren – ein wichtiger Punkt in der Diskussion um Datenkontrolle. Die rechtliche Lage spitzt sich zu Während neue Geschäftsmodelle entstehen, bleibt der juristische Druck hoch. In den USA hat ein Gericht kürzlich entschieden, dass eine Urheberrechtsklage von News Corp gegen Perplexity weiterverhandelt wird. Der Vorwurf: Inhalte seien ohne Lizenz von KI-Systemen verarbeitet worden. Auch in Japan klagen große Medienhäuser wie Nikkei und Asahi Shimbun. Sie fordern Schadensersatz in Millionenhöhe – und wollen verhindern, dass ihre Inhalte weiter durch Bots ausgelesen werden. Das zeigt: Viele Verlage wollen nicht mehr experimentieren, sondern klare Regeln. Nutzer entscheiden über den Erfolg Technisch ist Comet Plus gut angebunden: Durch eine Kooperation mit PayPal können Millionen Nutzer das Abo direkt testen. Ob sie bleiben, hängt vom Nutzen ab. Die Versprechen: bessere Antworten, schnellere Ergebnisse, mehr Kontext durch den KI-Assistenten. Für Publisher ist das Modell eine neue Chance, die Nutzung ihrer Inhalte durch künstliche Intelligenz mitzuverfolgen – und daran zu verdienen. Doch klar ist auch: Ohne Transparenz, Reichweite und verlässliche Auszahlungen wird kein Verlag dauerhaft mitspielen. Und ohne zahlende Nutzer auch kein KI-Modell. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG Perplexity startet mit Comet Plus ein 5-Dollar-Abo und will Verlage zu 80 % an Erlösen beteiligen, inklusive 42,5-Millionen-Dollar-Topf. Vergütet werden Klicks, Zitate in KI-Antworten und Bot-Aktivitäten – ein neuer Maßstab für Inhaltsnutzung. Cloudflare treibt parallel „Pay per Crawl“ mit HTTP-402 voran und bietet so ein Gegenmodell pro Zugriff. Klagen von News Corp sowie Nikkei/Asahi erhöhen das Risiko – Erfolg hängt von echter Nutzung und Auszahlungen ab. QUELLEN Perplexity Blog – Introducing Comet Plus Digiday – How the new revenue model works Fast Company – Monetize the bots, pay the publishers Reuters – News-Corp-Klage gegen Perplexity Financial Times – Nikkei/Asahi vs. Perplexity

  • Alterscheck per KI: Was Roblox jetzt verlangt

    Roblox mit Alterscheck

    Alterscheck per KI: Was Roblox jetzt verlangt Ohne Selfie-Schätzung oder Ausweis kein Chat: Die Plattform koppelt Kommunikation an harte Prüfungen und schränkt Cross-Age-Kontakt ein. Kurzfassung | Andreas Becker, 04.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Roblox verschärft die Alterskontrollen: Wer künftig chatten will, muss ein Selfie hochladen – und das von einer KI prüfen lassen. Alternativ geht’s mit Ausweis, bei Minderjährigen zusätzlich mit elterlicher Zustimmung. Damit will die Plattform besser steuern, wer mit wem kommuniziert – und problematische Kontakte zwischen Erwachsenen und Kindern verhindern. NEWS Selfie statt Selbstauskunft Bis Ende 2025 soll für alle Roblox-Nutzer mit Kommunikationsfunktionen eine Altersverifikation Pflicht werden. Die einfachste Methode: Ein KI-gestützter Selfie-Scan, der das geschätzte Alter des Spielers analysiert. Wer das nicht will, kann ein Ausweisdokument vorlegen. Bei unter 13-Jährigen ist eine aktive Zustimmung der Eltern nötig. Roblox verspricht sich davon zuverlässigere Ergebnisse als bisher, wo Nutzer ihr Alter einfach per Dropdown-Menü angeben konnten. Die Maßnahme betrifft alle, die auf Text-, Sprach- oder Privatnachrichten zugreifen wollen. Und sie ist Teil eines größeren Plans: Erwachsene sollen nicht mehr beliebig mit Kindern kommunizieren können – es sei denn, sie sind im echten Leben miteinander bekannt und dies wurde über die Plattform bestätigt. Weniger Risiken, mehr Kontrolle Roblox reagiert mit dem Schritt auf zunehmenden Druck, die Sicherheit jüngerer Nutzer zu verbessern. Bereits Anfang des Jahres hat die Plattform das KI-System „Sentinel“ eingeführt, das verdächtige Verhaltensmuster erkennen und Fälle möglicher sexueller Ausbeutung melden soll. Über 1.200 Hinweise wurden in der ersten Jahreshälfte 2025 an das zuständige Kinderschutzzentrum weitergeleitet. Sentinel steht inzwischen als Open Source zur Verfügung. Die neue Altersprüfung soll solche Risiken weiter minimieren – und gleichzeitig dafür sorgen, dass Kommunikationsfunktionen wirklich nur altersgerecht genutzt werden. Roblox verweist darauf, dass Chats ohnehin überwacht, Inhalte gefiltert und Bildaustausch unterbunden sind. Nutzer unter 13 Jahren haben keinen Zugriff auf Sprach- oder Privatnachrichten. Eltern erhalten zudem ein übersichtliches Kontrollmenü, mit dem sie genau festlegen können, was ihre Kinder sehen und nutzen dürfen. Neue Regeln für Inhalte Auch inhaltlich zieht Roblox die Grenzen enger. Erfahrungen mit dem Label „Restricted“ sind künftig nur noch für Erwachsene zugänglich. Inhalte ohne Altersfreigabe werden automatisch gesperrt. Entwickler müssen ihre Spiele daher korrekt bewerten lassen – sonst sind sie für niemanden spielbar. Roblox orientiert sich dabei an internationalen Standards wie IARC und ESRB. Der globale Rollout des neuen Systems läuft bereits. Die Plattform sieht sich damit als Vorreiter – nicht nur bei der technischen Umsetzung, sondern auch beim Schutz der Community. Ziel sei es, eine altersgerechte Spielerfahrung zu garantieren, ohne auf die kreativen Möglichkeiten von Roblox zu verzichten. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG Roblox koppelt Text-, Sprach- und Privatkommunikation bis Ende 2025 weltweit an eine Altersprüfung per KI-Selfie, Ausweis und Elternfreigabe. Kommunikation zwischen Erwachsenen und Minderjährigen wird begrenzt, wenn keine bestätigte reale Beziehung vorliegt. Mit „Sentinel“ setzt Roblox zusätzlich auf offene KI-Erkennung früher Missbrauchsmuster; über 1.200 Meldungen in H1/2025. Neue IARC/ESRB-Ratings, unbewertete Inhalte gesperrt, „Restricted“ künftig ab 18 – Entwickler müssen sauber labeln. QUELLEN Roblox Newsroom – Age Estimation für alle Kommunikationsnutzer TechCrunch – Ausbau der Altersschätzung & IARC-Ratings AP News – Roblox macht Sentinel als Open Source verfügbar Roblox DevForum – Änderungen bei Unrated & Maturity Labels THE DECODER – KI-Selfie-Scan zur Altersverifikation

  • KI greift in YouTube Shorts ein – ohne Vorwarnung

    Ein Youtube KI-Roboter verändert Videos

    KI greift in YouTube Shorts ein – ohne Vorwarnung Creator bemerken veränderte Gesichter und Effekte – was steckt wirklich hinter dem Experiment? Kurzfassung | Andreas Becker, 26.08.25
    gpt-image-1 | All-AI.de EINLEITUNG YouTube testet aktuell eine neue Funktion für seine Kurzvideos. Dabei werden einige Clips nach dem Hochladen automatisch überarbeitet. Ziel ist es laut Plattform, die Bildqualität zu verbessern. Doch Creator berichten von sichtbaren Veränderungen – vor allem an Gesichtern, Haaren und Kleidung. Viele empfinden das als Eingriff in ihre Inhalte und kritisieren, dass sie davon nichts wussten. Die Debatte über Kontrolle, Transparenz und Technik nimmt Fahrt auf. NEWS Was YouTube an den Videos verändert Die Tests betreffen YouTube Shorts – also Videos mit maximal 60 Sekunden Länge. YouTube nutzt laut eigenen Angaben klassische KI-Methoden, um die Videos optisch zu verbessern. Die Software entfernt Rauschen, macht das Bild schärfer und gleicht Unschärfen aus. Es handelt sich nicht um generative KI, die neue Inhalte erzeugt, sondern um sogenannte Optimierungen. Trotzdem bemerken viele Creator deutliche Veränderungen: Die Haut wirkt geglättet, Haare sehen künstlich aus, manche Details scheinen verschwunden. YouTube sagt, die Technik solle nur die Darstellung verbessern. Doch da die Änderungen automatisch passieren und es keine vorherige Info oder Auswahlmöglichkeit gab, wächst der Ärger. Besonders in einer Plattform, die stark auf persönliche Inhalte und Nahbarkeit setzt. Wie die Community darauf reagiert Mehrere bekannte Creator haben öffentlich gemacht, dass ihre Shorts nach dem Hochladen anders aussehen. Sie sprechen von Make-up-Effekten, veränderten Farben oder einer Art Weichzeichner. In manchen Fällen erinnern die Bilder an Filter aus Social Media – allerdings ohne die Möglichkeit, sie ein- oder auszuschalten. Viele fragen sich: Wie viel Kontrolle bleibt mir eigentlich über mein eigenes Video? Besonders kritisch wird gesehen, dass YouTube keine Option zum Deaktivieren anbietet. Auch ein Hinweis im Video selbst fehlt. Das führt dazu, dass Zuschauer denken könnten, der Creator habe sein Bild absichtlich bearbeitet. In einer Zeit, in der Echtheit und Transparenz wichtig sind, kann das das Vertrauen zwischen Kanal und Publikum stören. Was sich jetzt ändern muss YouTube hat angekündigt, auf die Rückmeldungen zu hören. Ob die Tests gestoppt werden oder ein Opt-out kommt, ist aber noch unklar. Für Creator wäre eine deutlichere Kennzeichnung hilfreich – oder die Möglichkeit, die Bearbeitung abzulehnen. Denn gerade bei persönlichen Inhalten wollen viele selbst entscheiden, wie sie im Video aussehen. Solche Diskussionen zeigen, wie sensibel der Umgang mit KI-Technik inzwischen ist. Selbst kleine Änderungen am Bild können große Wirkung haben. Wenn die Plattformen nicht offen damit umgehen, entsteht schnell Misstrauen. Die Technik ist da – aber der Umgang damit braucht klare Regeln und mehr Transparenz. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    YouTube testet eine KI-Funktion, die Shorts automatisch optimiert – ohne die Creator vorher zu informieren.
    Viele Nutzer bemerken Veränderungen an Gesichtern, Haaren und Farben – und empfinden das als Eingriff in ihre Inhalte.
    Eine Option zum Deaktivieren fehlt bisher, was bei der Community für Kritik und Vertrauensverlust sorgt.
    YouTube kündigte an, auf Feedback zu reagieren – doch konkrete Änderungen sind noch offen.
    QUELLEN
    The Verge
    Tubefilter
    The Atlantic
    Social Media Today

  • Grok-Skandal: Hunderttausende Chats öffentlich!

    Ein Grok Glitch auf der Google Suche

    Grok-Skandal: Hunderttausende Chats öffentlich! Was haben Nutzer unwissentlich geteilt – und wie konnte das passieren? Kurzfassung | Andreas Becker, 20.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Kaum hat sich der Staub um durchsuchbare ChatGPT-Gespräche gelegt, trifft es den nächsten großen Anbieter: xAI. Hunderttausende Unterhaltungen mit dem hauseigenen Chatbot Grok sind plötzlich bei Google auffindbar – frei zugänglich und ungeschützt. Was eigentlich eine einfache Teilen-Funktion sein sollte, macht private Gespräche mit dem KI-Assistenten öffentlich sichtbar. Darunter finden sich nicht nur harmlose Fragen, sondern auch brisante Inhalte. NEWS Eine Funktion mit unerwarteten Folgen Jeder Grok-Chat lässt sich per Button teilen – das klingt erstmal praktisch. Die Funktion erstellt einen eigenen Link, der zum Gespräch führt und problemlos weitergegeben werden kann. Was viele offenbar nicht wussten: Diese Links landen auch im Google-Index. Wer den richtigen Suchbegriff eingibt, bekommt intime Details wildfremder Menschen angezeigt. Die Inhalte reichen von Alltagsfragen bis zu rechtlich heiklen Themen: Bauanleitungen für Bomben, Drogenrezepte, Suizidmethoden und sogar Mordpläne. In manchen Fällen lieferte Grok dazu erstaunlich konkrete Antworten – trotz klarer Regeln, die genau solche Inhalte verbieten. Dass Nutzer solche Anfragen stellen, ist problematisch. Dass die Gespräche nun über Google gefunden werden können, ist ein Sicherheitsrisiko. Parallelen zu OpenAI – aber schlimmer Schon bei ChatGPT war Ende Juli bekannt geworden, dass geteilte Gespräche bei Google auftauchten. OpenAI sprach von einem kurzen Testlauf, der sofort beendet wurde. Der Unterschied: Groks Inhalte sind nicht aus Versehen öffentlich geworden. Die Seiten sind ganz normal über xAI erreichbar – inklusive hochgeladener Dateien wie PDFs oder Bilder. Besonders heikel: xAI hatte sich zuvor noch über OpenAI lustig gemacht. Nach dem Vorfall mit ChatGPT versprach Grok, besonders auf Privatsphäre zu achten. Der Spott wirkt im Rückblick eher peinlich. Offen bleibt, ob die Veröffentlichung bewusst in Kauf genommen wurde oder einfach schlechte Umsetzung war. Wie es weitergeht xAI schweigt bisher zu dem Vorfall. Es ist unklar, ob die Inhalte gezielt aus dem Google-Index entfernt werden oder ob die Teilen-Funktion überarbeitet wird. Möglich wäre eine technische Lösung, etwa durch sogenannte „noindex“-Tags oder passwortgeschützte Links. Denn aktuell ist jeder geteilte Chat eine offene Tür – nicht nur für Neugierige, sondern auch für Missbrauch. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Hunderttausende Grok-Chats sind durch eine Teilen-Funktion über Google auffindbar geworden.
    Viele Nutzer wussten offenbar nicht, dass ihre Gespräche öffentlich im Netz landen.
    Die Vorfälle werfen ernste Fragen zum Datenschutz und zur Nutzerführung bei xAI auf.
    Grok steht unter Druck, technische Schutzmaßnahmen nachzubessern und Vertrauen wiederherzustellen.
    QUELLEN
    TechCrunch
    Forbes
    Malwarebytes
    9to5Mac
    Tom’s Guide