Schlagwort: Facebook

  • Meta sperrt Kinderkonten durch visuelle KI-Überwachung

    Ein Mädchen vor einer gesperrten Facebook App

    Nano Banana

    Kurzfassung

    Quellen

    Meta nutzt neue KI-Modelle, um das Alter von Facebook- und Instagram-Nutzern anhand von Körpergröße und Knochenstruktur auf Fotos zu schätzen.
    Das Unternehmen kombiniert diese visuellen Daten mit Textanalysen, um Profile von Kindern unter 13 Jahren aufzuspüren und zu deaktivieren.
    Gleichzeitig weitet der Konzern die automatische Umstellung auf geschützte Teen Accounts auf 27 EU-Länder aus.

    Meta Blog: New AI-Powered Age Assurance Measures to Place Teens in Age-Appropriate Experiences
    TechCrunch: Meta will use AI to analyze height and bone structure to identify if users are underage
    The Verge: Facebook and Instagram are using AI bone structure analysis to detect underage users
    Engadget: Meta is using AI bone structure analysis to detect and remove underaged users
    9to5Mac: Meta AI will analyze faces of teen users ‚but it’s not face recognition‘

    Um das Alter von Nutzern auf Facebook und Instagram präziser zu schätzen, setzt Meta auf neue KI-Modelle. Dabei analysiert die Technik gezielt visuelle Merkmale wie Knochenstruktur und Körpergröße auf hochgeladenen Fotos und Videos, um Kinder unter 13 Jahren aufzuspüren. Visuelle Hinweise statt Gesichtserkennung Ausdrücklich betont der Konzern den Unterschied zur klassischen Identifikation von Gesichtern. Die eingesetzten KI-Modelle ordnen den Inhalten demnach keine konkreten Personen zu. Vielmehr werten sie allgemeine physische Eigenschaften aus, um auf das grobe Alter der abgebildeten Individuen zu schließen. Ergänzend zieht das Unternehmen textbasierte Informationen aus den Profilen heran. Feiern Nutzer bestimmte Geburtstage oder erwähnen konkrete Schulklassen in Beiträgen sowie Biografien, fließen diese Daten in die Gesamtbewertung ein. Durch diese Kombination verschiedener Signale steigt die Trefferquote bei der Erkennung minderjähriger Konten spürbar. Schlägt die Alterseinschätzung an und stuft ein Profil als mutmaßlich unter 13 Jahre ein, erfolgt eine automatische Deaktivierung. Betroffene erhalten erst dann wieder Zugriff auf die Plattform, wenn sie ihr tatsächliches Alter über einen offiziellen Nachweis bestätigen. Anzeige Strengere Vorgaben für Jugendliche Neben der generellen Sperrung jüngerer Kinder baut der Anbieter die geschützten Bereiche für Teenager weiter aus. Die automatische Einstufung in sogenannte Teen Accounts erreicht nun 27 Länder der Europäischen Union sowie Brasilien auf Instagram. Diese speziellen Konten unterliegen deutlich schärferen Kontakt-Regeln. Direktnachrichten empfangen die Jugendlichen dort ausschließlich von Personen, denen sie bereits aktiv folgen. Zudem sind entsprechende Profile standardmäßig auf privat gestellt und verbergen potenziell schädliche Kommentare. Parallel dehnt das Unternehmen diese Erkennungstechnologie erstmals auf Facebook in den USA aus. Ein Start im Vereinigten Königreich und in der Europäischen Union ist für Ende Juni geplant, womit die Schutzmaßnahmen schrittweise auf weitere Regionen übertragen werden.

  • Metas neuer Foto-Spion

    Meta zieht Bilder aus einem Fotobuch

    Nano Banana

    Kurzfassung

    Quellen

    Meta führt in den USA und Kanada eine neue „Opt-in“ KI-Funktion für Facebook ein. Die Funktion scannt die gesamte private Kamerarolle der Nutzer und lädt Fotos in Metas Cloud hoch. Ziel ist es, Bearbeitungen und Collagen vorzuschlagen, um das Teilen zu erleichtern. Die Fotos werden für das KI-Training verwendet, sobald der Nutzer einen Vorschlag bearbeitet oder teilt, was Datenschützer alarmiert.

    Meta The Verge TechCrunch TechEDT Fast Company

    Meta hat ein neues KI-Feature für Facebook gestartet. Es analysiert die gesamte Kamerarolle von Nutzern, um Collagen oder Bearbeitungen vorzuschlagen. Die Funktion ist „Opt-in“ und startet zunächst in den USA und Kanada. Sie wirft aber erhebliche Datenschutzfragen auf. Der Scan der ungeteilten Bilder Facebook bittet seine Nutzer in den USA und Kanada seit dem 17. Oktober um eine weitreichende Erlaubnis. Über eine neue „Opt-in“-Schaltfläche können Anwender der KI des Konzerns den Zugriff auf ihre gesamte Smartphone-Fotogalerie gewähren. Dies ist ein signifikanter Schritt, da die Funktion nicht nur bereits hochgeladene Bilder betrifft. Die KI scannt explizit auch Fotos, die der Nutzer bisher privat hielt und nicht teilen wollte. Sobald die Zustimmung erteilt ist, lädt die Funktion die privaten Fotos in die Cloud von Meta hoch. Eine KI analysiert dort den Inhalt der Bilder. Basierend auf dieser Analyse schlägt Facebook dem Nutzer dann Collagen, Bildeffekte oder Bearbeitungen vor, um diese „verborgenen Schätze“ direkt zu teilen. Meta bezeichnet dies als eine Hilfestellung, um Nutzern das Erstellen von Inhalten zu erleichtern. + Quelle: Meta Die Kontroverse um das KI-Training Die zentrale Kontroverse entzündet sich an der Frage der Datennutzung. Meta erklärt in seinem offiziellen Blogpost, dass die hochgeladenen Fotos nicht für das Training der generativen KI-Modelle verwendet werden. Diese Zusicherung ist jedoch an eine Bedingung geknüpft. Die Privatsphäre-Einstellung gilt nur, solange der Nutzer passiv bleibt. Sobald ein Anwender einen der KI-Vorschläge annimmt, das Bild mit KI-Tools bearbeitet oder den Vorschlag teilt, werden die Daten doch für das KI-Training verwendet. Kritiker sehen darin eine problematische Grauzone. Die Grenze zwischen privatem Foto und Trainingsdatensatz verschwimmt durch eine einzige Interaktion des Nutzers. Datenschützer warnen vor dieser Eskalation des Datenzugriffs. Bisher hatte Meta nur Zugriff auf das, was Nutzer aktiv hochluden. Die neue Funktion verschafft dem Unternehmen nun potenziell Einblick in die gesamten visuellen Archive der Nutzer, inklusive sensibler oder privater Momente. Metas aggressive KI-Strategie Dieser Vorstoß ist kein Einzelfall, sondern Teil von Metas umfassender KI-Strategie. Der Konzern arbeitet intensiv daran, KI-Funktionen tief in alle seine Dienste wie Facebook, Instagram und WhatsApp zu integrieren. Der Zugriff auf ungeteilte Fotos ist dabei ein strategisch wertvoller Schritt. Diese Daten bieten tiefere Einblicke in die Vorlieben, den Alltag und das soziale Umfeld der Nutzer, als es geteilte Inhalte allein könnten. Ob die Nutzer bereit sind, diesen tiefen Einblick in ihre Privatsphäre gegen den Komfort von KI-generierten Collagen einzutauschen, bleibt abzuwarten. Die Akzeptanz des Opt-in-Programms in Nordamerika wird die globale Einführung maßgeblich beeinflussen.

  • Meta lässt KI-Promis flirten – sogar mit Jugendlichen

    Meta Chat mit einem Fußballstar

    Meta lässt KI-Promis flirten – sogar mit Jugendlichen Auf Facebook & Co. tauchten anzügliche Chatbots im Stil echter Stars auf. Manche erstellte Meta sogar selbst. Wie konnte das passieren? Kurzfassung | Andreas Becker, 01.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Auf Facebook, Instagram und WhatsApp sind Chatbots aufgetaucht, die sich als echte Stars ausgaben und mit teils anzüglichen Nachrichten für Schlagzeilen sorgen. Einige dieser Figuren wirkten wie Taylor Swift oder Lewis Hamilton, andere sogar wie minderjährige Prominente. Die meisten dieser Avatare wurden von Nutzern erstellt – doch mindestens drei kamen direkt aus Metas eigenem Entwicklerteam. Besonders brisant: Ein KI-Bot verschickte sogar ein Oben-ohne-Bild eines fiktiven Teenagers. Der Fall bringt Meta nun in Erklärungsnot. NEWS Wenn KI die Kontrolle verliert Die Vorwürfe basieren auf Recherchen der Nachrichtenagentur Reuters. Sie testete verschiedene KI-Charaktere, die öffentlich zugänglich waren. Dabei fiel auf: Viele gaben sich als Prominente aus, reagierten auf Flirtversuche und lieferten sogar freizügige Bilder, wenn man danach fragte. Ein Bot schickte ein KI-generiertes Nacktfoto, das auf dem Aussehen eines jugendlichen Schauspielers beruhte – ein klarer Regelverstoß. Noch problematischer: Einige dieser Chatbots wurden nicht von außen erstellt, sondern direkt von einer Meta-Mitarbeiterin. Sie hatte unter anderem zwei Bots aufgesetzt, die sich als Taylor Swift ausgaben, und einen weiteren, der als Lewis Hamilton auftrat. Daneben baute sie auch Rollenfiguren, die gezielt für erotische Gespräche entworfen waren – etwa ein römischer Soldat, der Nutzerinnen sexuell erniedrigte. Vor Veröffentlichung des Berichts löschte Meta mehrere dieser Bots. Einige davon hatten bereits Millionen Interaktionen gesammelt. Interne Regeln greifen nicht Meta erlaubt grundsätzlich sogenannte „Parodien“, also Promi-Avatare mit klarer Kennzeichnung. Sexuelle Inhalte und nackte Bilder sind eigentlich tabu – vor allem, wenn es um Minderjährige geht. Doch genau hier hat das System versagt. Manche Bots waren nicht als Parodie erkennbar, andere ignorierten die inhaltlichen Grenzen komplett. Nachdem der Fall bekannt wurde, kündigte Meta neue Maßnahmen an. Künftig sollen KI-Charaktere keine romantischen oder sexuellen Gespräche mit Jugendlichen mehr führen. Auch sensible Themen wie Gewalt oder psychische Probleme sollen für jüngere Nutzer blockiert werden. Der Zugang zu expliziten Figuren wird außerdem eingeschränkt. Meta will die eigenen Regeln jetzt überarbeiten. Politik und Recht wachen auf Rechtlich geht es um das Persönlichkeitsrecht: Niemand darf ohne Erlaubnis mit seinem Namen oder Aussehen in der Öffentlichkeit dargestellt werden – schon gar nicht in erotischem Zusammenhang. In den USA ist das zwar je nach Region unterschiedlich geregelt, doch Fachleute sehen klare Risiken. Vor allem Prominente könnten dagegen rechtlich vorgehen. Auch politisch wächst der Druck. US-Behörden und Senatoren fordern Aufklärung und prüfen Konsequenzen. Meta plant eigentlich, KI-Charaktere als neue Form der digitalen Unterhaltung zu etablieren. Doch dieser Vorfall zeigt, wie schnell solche Systeme aus dem Ruder laufen können – und wie schwer es ist, sie wieder einzufangen. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Meta testete KI-Chatbots, die sich als Promis wie Taylor Swift oder Lewis Hamilton ausgaben – einige führten anzügliche Gespräche mit Nutzern.
    Mindestens drei Bots wurden intern von Meta-Mitarbeitern erstellt, darunter auch ein Avatar, der ein Nacktfoto eines fiktiven Teenagers verschickte.
    Nach Enthüllungen durch Reuters versprach Meta neue Schutzmaßnahmen, um sexuelle Inhalte und riskante Interaktionen mit Jugendlichen zu verhindern.
    Politik und Behörden fordern nun Aufklärung, während rechtliche Konsequenzen im Raum stehen – insbesondere beim Schutz von Persönlichkeitsrechten.
    QUELLEN
    Reuters (Promi-Avatare ohne Erlaubnis)
    Reuters (KI-Schutzmaßnahmen nach Kritik)
    heise online
    The Verge

  • Meta darf Instagram- und Facebook-Daten für KI-Training nutzen – Gericht weist Klage ab

    Meta darf vorerst öffentliche Daten von Facebook- und Instagram-Nutzern zum Training seines KI-Modells verwenden. Ein Eilantrag der Verbraucherzentrale NRW scheiterte vor dem OLG Köln.

    Der Artikel Meta darf Instagram- und Facebook-Daten für KI-Training nutzen – Gericht weist Klage ab erschien zuerst auf THE-DECODER.de.