Schlagwort: X

  • Britische Medienaufsicht ermittelt gegen X wegen KI-generierter Nacktbilder

    Die britische Medienaufsicht Ofcom hat eine Untersuchung gegen X wegen des KI-Chatbots Grok eingeleitet.

    Der Artikel Britische Medienaufsicht ermittelt gegen X wegen KI-generierter Nacktbilder erschien zuerst auf The Decoder.

  • Erstes Land sperrt Elon Musks KI Grok komplett

    Ein X wird in Indonesien nicht reingelassen

    Nano Banana

    Kurzfassung

    Quellen

    Indonesien hat als erstes Land weltweit den Zugriff auf Elon Musks KI Grok wegen der Generierung sexualisierter Deepfakes gesperrt. Parallel erhöhen die EU und Großbritannien den regulatorischen Druck, während in Indien bereits hunderte Accounts gelöscht wurden. In den USA fordern Senatoren nun sogar, die X-App wegen der Verstöße komplett aus den App-Stores von Apple und Google zu entfernen.

    TechCrunch – Indonesia blocks Grok over non-consensual, sexualized deepfakes

    CNBC – Indonesia temporarily blocks access to Elon Musk’s Grok over sexualized images

    CBS News – Indonesia suspends Grok AI over sexualised images

    Elon Musks KI-Tool Grok ist in Indonesien ab sofort nicht mehr erreichbar. Das viertbevölkerungsreichste Land der Erde reagiert als erster Staat weltweit konsequent auf die Welle an sexualisierten Deepfakes und setzt damit ein massives Zeichen gegen unregulierte KI-Inhalte. Harte Reaktion auf Nacktbilder-Skandal Das indonesische Kommunikationsministerium hat den Zugriff auf den KI-Chatbot Grok offiziell blockiert. Die Regierung begründet diesen drastischen Schritt mit Verstößen gegen lokale Gesetze zur elektronischen Information und Transaktionen. Auslöser ist die Fähigkeit der KI, ohne Einschränkungen fotorealistische Nacktbilder von echten Personen zu generieren. Nutzer hatten in den vergangenen Tagen demonstriert, wie einfach sich mit Grok pornografische Inhalte von Prominenten, Politikern und sogar Minderjährigen erstellen lassen. Während andere KI-Modelle solche Anfragen meist abblocken, fehlten bei Grok entsprechende Sicherheitsfilter fast vollständig. Indonesien macht nun ernst und duldet diese Praxis nicht länger. Die Sperre gilt als vorübergehend, bis xAI nachbessert, sendet aber ein klares Signal an die Tech-Industrie. Es ist der erste Fall, in dem eine Regierung den Zugang zu einem großen LLM (Large Language Model) aufgrund spezifischer Inhaltsverstöße komplett kappt. Die Behörden in Jakarta fordern garantierte Mechanismen, die solche Generierungen zukünftig technisch unmöglich machen. Anzeige EU und Großbritannien erhöhen den Druck Auch in Europa spitzt sich die Lage für Elon Musk und sein Unternehmen xAI zu. Die EU-Kommission hat im Rahmen des Digital Services Act (DSA) ein formelles Verfahren eingeleitet und fordert die sofortige Sicherung von Beweismitteln. X muss alle Dokumente bezüglich der Entscheidungsprozesse bei Grok aufbewahren, um den Vorwürfen der fehlenden Risikominimierung nachzugehen. In Großbritannien eskaliert der Konflikt auf politischer Ebene. Premierminister Keir Starmer kündigte an, gegen die Verbreitung illegaler Deepfakes vorzugehen. Musk reagierte auf der Plattform X gewohnt provokant und bezeichnete Großbritannien als „Gefängnisinsel“. Diese verbale Auseinandersetzung könnte regulatorische Maßnahmen im Vereinigten Königreich weiter beschleunigen. Gleichzeitig gerät X in Indien unter Zugzwang. Nach massivem öffentlichen Druck und Regierungsanfragen hat die Plattform dort begonnen, hunderte Accounts zu löschen, die offensives Material verbreitet hatten. Das Unternehmen räumte Fehler ein und versicherte, sich an lokale Gesetze halten zu wollen. App-Stores in der Pflicht Die Kontroverse erreicht nun auch die Infrastruktur-Ebene der großen Tech-Giganten. In den USA fordern demokratische Senatoren Apple und Google dazu auf, die X-App mitsamt der integrierten Grok-Funktion aus ihren App-Stores zu entfernen. Sie argumentieren, dass die Verbreitung von nicht-einvernehmlichem sexuellen Material gegen die Richtlinien beider Store-Betreiber verstößt. Sollten Apple oder Google diesen Forderungen nachkommen, wäre das ein wirtschaftliches Desaster für Musk. Der Ausschluss aus den beiden dominierenden Ökosystemen würde die Reichweite von X und Grok massiv beschneiden. Der Druck auf xAI wächst somit nicht nur durch staatliche Regulierer, sondern auch durch die Gatekeeper der mobilen Welt.

  • Grok-Skandal: EU zwingt Elon Musk zur Beweis-Sicherung bis 2026

    Elon Musk schleppt Daten zur EU

    Nano Banana

    Kurzfassung

    Quellen

    Die EU-Kommission hat X angewiesen, alle Dokumente zu Grok bis Ende 2026 lückenlos zu sichern. Grundlage für diesen Schritt ist der Digital Services Act nach schweren Vorwürfen über illegale KI-Inhalte. Das Unternehmen muss interne Protokolle und Algorithmen für die Ermittler der Brüsseler Behörde zugänglich halten. Bei Verstößen gegen diese Anordnung drohen Elon Musk empfindliche Bußgelder in Milliardenhöhe.

    Reuters – EU Commission orders X to retain all Grok documents until end 2026

    The Verge – Europe demands X retain documents amid Grok’s undressing spree

    WIRED – Grok Is Generating Sexual Content Far More Graphic Than What’s on X

    Bloomberg – Illegal Images Allegedly Made by Musk’s Grok, Watchdog Says

    Die Europäische Kommission hat X offiziell angewiesen, sämtliche internen Dokumente zum KI-Chatbot Grok bis Ende 2026 aufzubewahren. Die Anordnung folgt auf massive Vorwürfe über die Generierung illegaler Inhalte und markiert eine neue Eskalationsstufe im regulatorischen Konflikt mit Elon Musk. Beweissicherung per Gesetz Die Brüsseler Behörde nutzt für diesen drastischen Schritt die Befugnisse des Digital Services Act (DSA). Dieses EU-Gesetz verpflichtet sehr große Online-Plattformen zu strengen Sicherheitsvorkehrungen gegen rechtswidrige Inhalte. X muss nun alle relevanten Protokolle, Algorithmen-Details und internen Kommunikationswege archivieren, die das Training und die Filtermechanismen von Grok betreffen. Diese präventive Maßnahme stellt sicher, dass Beweise für mögliche Verstöße nicht nachträglich gelöscht werden können. Die EU-Kommission reagiert damit auf eine Reihe von Vorfällen, die das Vertrauen in die Selbstregulierung der Plattform schwer erschüttert haben. Erst im Dezember 2025 wurde X mit einer Geldstrafe von 120 Millionen Euro belegt, da das Unternehmen Transparenzpflichten massiv verletzt hatte. Anzeige Illegale Inhalte als Auslöser Hintergrund der aktuellen Anordnung sind Berichte über die Erstellung von kinderpornografischem Material und antisemitischen Inhalten durch die künstliche Intelligenz. Nutzer konnten offenbar die internen Sicherheitsfilter mit einfachen Methoden umgehen, um explizite Deepfakes zu generieren. Ein Deepfake bezeichnet durch KI täuschend echt manipulierte Bilder oder Videos von Personen. Besonders der sogenannte Spicy-Modus von Grok geriet in die Kritik der Ermittler. Laut EU-Sprecher Thomas Regnier handelte es sich bei den Ausgaben der KI nicht um harmlose Inhalte, sondern um strafrechtlich relevante Darstellungen. Neben der EU haben auch Behörden in Frankreich, Indien und Malaysia eigene Untersuchungen eingeleitet, nachdem Grok ohne Einwilligung sexuelle Bilder von Minderjährigen erzeugt hatte. Globale Konsequenzen für Musk Das Vorgehen der EU sendet ein deutliches Signal an die gesamte Branche der generativen künstlichen Intelligenz. Sollte X der Anordnung zur Dokumentensicherung nicht vollständig nachkommen, drohen weitere Bußgelder von bis zu sechs Prozent des weltweiten Jahresumsatzes. Das Unternehmen von Elon Musk steht nun unter enormem Druck, seine Moderationsprozesse grundlegend zu reformieren. Während das Entwicklerstudio xAI versucht, die Sicherheitslücken durch Software-Updates zu schließen, bleibt die politische Lage angespannt. Experten bewerten die aktuelle Anordnung als Vorboten für ein mögliches Verfahren, das weitreichende Einschränkungen für den Betrieb von KI-Modellen in Europa nach sich ziehen könnte.

  • EU ordnet X an, alle Grok-Dokumente bis Ende 2026 aufzubewahren

    Die EU-Kommission hat Elon Musks Plattform X angewiesen, alle internen Dokumente und Daten zum KI-Chatbot Grok bis Ende 2026 aufzubewahren.

    Der Artikel EU ordnet X an, alle Grok-Dokumente bis Ende 2026 aufzubewahren erschien zuerst auf The Decoder.

  • Analyse zeigt: Grok erstellt tausende sexualisierte Bilder ohne Zustimmung pro Stunde

    Elon Musks Plattform X hat sich zum Hauptumschlagplatz für KI-Bilder entwickelt, auf denen Personen ohne ihre Zustimmung entkleidet werden.

    Der Artikel Analyse zeigt: Grok erstellt tausende sexualisierte Bilder ohne Zustimmung pro Stunde erschien zuerst auf The Decoder.

  • Grok-Debakel: Harte Strafen für illegale KI-Inhalte auf Plattform X

    Schaubild mit Musk und X

    Nano Banana

    Kurzfassung

    Quellen

    Elon Musks KI-Tool Grok steht wegen der Generierung sexualisierter Bilder von Minderjährigen weltweit in der Kritik. Internationale Regulierungsbehörden wie die EU und Ofcom haben bereits offizielle Untersuchungen gegen die Plattform X eingeleitet. Als Reaktion auf den Skandal droht Elon Musk missbräuchlichen Nutzern mit dauerhaften Kontensperren und rechtlichen Konsequenzen. Das Unternehmen xAI arbeitet derzeit unter Hochdruck an neuen technischen Filtern, um die Sicherheitslücken in der Bildbearbeitung zu schließen.

    PC Magazine – X: Using Grok to Generate Illegal Images Will Lead to Account Bans, Legal Action

    Sky News – Ofcom makes ‚urgent contact‘ with X over concerns Grok AI can generate ’sexualised images of children‘

    Heise Online – „Widerlich“: Kritik an X wegen sexualisierter Deepfakes von Grok nimmt zu

    Reuters – Britain demands Elon Musk’s Grok answers concerns about sexualised photos

    BBC News – Ofcom asks X about reports its Grok AI makes sexualised images

    Elon Musks KI-Modell Grok hat durch die Erstellung sexualisierter Bilder von Minderjährigen eine weltweite Untersuchung ausgelöst. Behörden fordern nun strikte Konsequenzen, während X mit Kontensperren und rechtlichen Schritten gegen missbräuchliche Anwender reagiert. Internationale Regulierer schlagen Alarm Der britische Medienwächter Ofcom und die Europäische Kommission haben dringende Untersuchungen gegen den Kurznachrichtendienst X eingeleitet. Anlass sind Berichte, wonach das KI-Tool Grok zur Erstellung sexualisierter Deepfakes von Frauen und Minderjährigen genutzt wurde. Unter Deepfakes versteht man täuschend echt wirkende, aber künstlich manipulierte Medieninhalte. Die Behörden prüfen nun, ob X gegen geltende Sicherheitsgesetze für Online-Plattformen verstoßen hat. Die Kritik beschränkt sich nicht auf Europa. Auch Regierungen in Indien, Frankreich und Malaysia fordern Erklärungen von der Plattform. Ein Sprecher der EU-Kommission bezeichnete die Vorfälle als illegal und abstoßend. Er betonte, dass derartige Inhalte keinen Platz in einem regulierten digitalen Raum haben. X drohen bei Verstößen gegen den Digital Services Act massive Geldstrafen in Millionenhöhe. Anzeige Sicherheitslücken bei der Bildbearbeitung Die Kontroverse entzündete sich an einer neuen Bildbearbeitungsfunktion, die es Nutzern erlaubt, Fotos per Texteingabe zu verändern. Durch Befehle wie das Entfernen von Kleidung generierte die KI Darstellungen von Kindern in sexualisierter Form. Laut Analysen von xAI gab es eklatante Mängel bei den Sicherheitsfiltern des Systems. Das Unternehmen räumte Fehler ein und arbeitet derzeit an technischen Sperren für derartige Anfragen. Anfangs reagierte Musk noch ausweichend auf die Vorwürfe. Auf Anfragen von Journalisten antwortete das Unternehmen zeitweise mit einer automatisierten Nachricht, die Medien der Lüge bezichtigte. Forscher der Organisation AI Forensics wiesen jedoch nach, dass zahlreiche Bilder von Minderjährigen im Umlauf waren. Ein Großteil dieser Inhalte entstand durch einfache Modifikationen vorhandener Fotos. Prominente Opfer und rechtliche Drohungen Unter den Betroffenen befindet sich Ashley St. Clair, eine Vertraute von Elon Musk, deren Kindheitsfotos durch die KI sexualisiert wurden. Auch Bilder der 14-jährigen Schauspielerin Nell Fisher wurden missbräuchlich verändert. St. Clair erwägt nun rechtliche Schritte gegen das Unternehmen. Sie kritisierte die mangelnden Schutzmaßnahmen für Privatpersonen und Minderjährige scharf. Elon Musk wies die Verantwortung für die missbräuchliche Nutzung der Technik zunächst zurück. Er betonte jedoch später, dass Nutzer für die Erstellung illegaler Inhalte selbst haften. Wer die KI für kriminelle Zwecke missbraucht, müsse mit einer dauerhaften Sperrung seines Kontos sowie strafrechtlichen Ermittlungen rechnen. X kündigte an, eng mit den Strafverfolgungsbehörden zusammenzuarbeiten, um die Urheber der Bilder zu identifizieren.

  • Der „Charakter“ von GPT-4o kommt nicht zurück, weil er zufällig entstanden ist

    Ein als „Roon“ auf X bekannter OpenAI-Entwickler erklärt, warum der „Charakter“ eines LLMs nicht reproduzierbar ist.

    Der Artikel Der „Charakter“ von GPT-4o kommt nicht zurück, weil er zufällig entstanden ist erschien zuerst auf The Decoder.

  • 20.000-Dollar-Roboter vorbestellbar

    Ein Roboter im Wohnzimmer

    Nano Banana

    Kurzfassung

    Quellen

    1X Technologies hat die Vorbestellung für den humanoiden Haushaltsroboter NEO gestartet. Der Roboter kostet 20.000 US-Dollar oder 499 Dollar im Monat und soll 2026 ausgeliefert werden. Der entscheidende Haken: NEO ist nicht völlig autonom und benötigt für komplexe Aufgaben menschliche Fernsteuerung. Mitarbeiter von 1X greifen per Teleoperation ein, um den Roboter zu steuern und gleichzeitig die KI zu trainieren.

    Source1 Source2 Source3 Source4 Source5

    Das norwegisch-amerikanische Unternehmen 1X Technologies nimmt ab sofort Vorbestellungen für den humanoiden Roboter NEO entgegen. Er soll 2026 in US-Haushalte kommen und den Alltag meistern. Der Haken: Für komplexe Aufgaben braucht die 20.000-Dollar-Maschine einen menschlichen Fernsteuerer. Ein Helfer für den Alltag 1X Technologies bewirbt NEO als fortschrittlichen Helfer, der künftig kochen, aufräumen und sogar einkaufen soll. Das Design wirkt dabei bewusst zugänglich und weniger industriell als bei Konkurrenzmodellen. NEO bewegt sich auf Rädern fort und besitzt zwei geschickte Arme, um mit der menschlichen Umgebung zu interagieren. Ziel ist es, dass der Roboter durch KI lernt und autonom im Haushalt agiert. Das Unternehmen verspricht, dass NEO Gespräche führen und Aufgaben selbstständig erledigen kann. Die ersten Auslieferungen sind für 2026 in den USA geplant, zunächst für Kunden, die das Gerät jetzt vorbestellen.

    Der Mensch im Hintergrund Die versprochene Autonomie hat jedoch klare Grenzen. Berichte bestätigen, dass NEO zumindest anfangs nicht alle Aufgaben selbstständig bewältigen kann. Stößt der Roboter auf ein Problem, das seine KI nicht lösen kann, greift ein Mensch ein. Mitarbeiter von 1X schalten sich per Fernsteuerung, sogenannter Teleoperation, auf das Gerät. Sie übernehmen die Steuerung, um die Aufgabe zu erledigen. Dieses „Human-in-the-Loop“-Modell ist entscheidend für die Funktionsweise. Das Unternehmen nutzt diesen Ansatz, um die KI des Roboters zu trainieren. Jede menschliche Intervention liefert wertvolle Daten, damit NEO ähnliche Situationen in Zukunft vielleicht alleine meistert. Der Roboter lernt also direkt vom Menschen, während er bereits im Einsatz ist. Ein teures Lernmodell Die Technologie hat ihren Preis. 1X verlangt für den Kauf von NEO 20.000 US-Dollar. Alternativ bietet das Unternehmen ein Abo-Modell für 499 Dollar pro Monat an. Diese Kostenstruktur macht deutlich, dass es sich nicht um ein Massenprodukt handelt. Der Markt für humanoide Roboter wächst, doch 1X wählt einen anderen Weg als Konkurrenten. Statt auf volle Autonomie zu warten, bringt 1X ein Produkt auf den Markt, das noch stark auf menschliche Unterstützung angewiesen ist. Kunden werden damit zu frühen Testern in einem großangelegten Trainingsexperiment. Ob dieser Ansatz die hohen Erwartungen an Haushaltsroboter erfüllen kann, wird sich 2026 zeigen.

  • Sam Altman erklärt Social Media für „fake“

    Die zwei Seiten auf Social Media

    Sam Altman erklärt Social Media für „fake“ KI-Sprache, Bot-Traffic und Astroturfing verwischen Grenzen zwischen Mensch und Maschine – sogar Reddit und X wirken inszeniert. Kurzfassung | Andreas Becker, 09.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Für Sam Altman ist das Internet nicht mehr echt. Zu viele Bots, zu viel KI-Sprech, zu viele künstlich aufgeblasene Debatten. Der OpenAI-Chef beschreibt ein Gefühl, das viele Nutzer teilen: Auf Plattformen wie X und Reddit verschwimmen die Grenzen zwischen Mensch und Maschine – mit spürbaren Folgen für die Glaubwürdigkeit digitaler Diskurse. NEWS Zwischen Menschen, Maschinen und Memes Altman fiel es beim Scrollen durch Reddit auf: Zu viele Beiträge klingen wie aus der Feder einer Sprach-KI. Besonders im r/Claudecode-Subreddit, wo auffällig viele Lobeshymnen auf OpenAIs neuen Codex-Dienst auftauchen. Selbst wenn das Wachstum real ist, bleiben Zweifel. Altman fragt sich: „Sind das wirklich Menschen oder doch nur Bots?“ Die Antwort bleibt offen – das Misstrauen wächst. Was wie Paranoia klingt, lässt sich mit Zahlen untermauern. Laut dem Sicherheitsunternehmen Imperva war 2024 über die Hälfte des gesamten Internet-Traffics nicht-menschlich. „Bad Bots“ machen rund 30 Prozent aus – viele davon arbeiten inzwischen mit LLMs im Hintergrund. Sprache, Stil und Timing sind so überzeugend geworden, dass sogar Branchenkenner ins Grübeln kommen.
    Cookies aktivieren um den Inhalt zu sehen:
    Cookiebar öffnen

    i have had the strangest experience reading this: i assume its all fake/bots, even though in this case i know codex growth is really strong and the trend here is real. i think there are a bunch of things going on: real people have picked up quirks of LLM-speak, the Extremely… https://t.co/9buqM3ZpKe — Sam Altman (@sama) September 8, 2025 Kritik, Gegenwind – und ein AMA zur Schadensbegrenzung Der Zeitpunkt von Altmans Kommentar ist kein Zufall. Erst vor Kurzem musste OpenAI harsche Kritik für den Start von GPT-5 einstecken. In einem Reddit-AMA gestand Altman technische Probleme ein. Doch das Vertrauen ist angekratzt. Viele Nutzer klagen über Leistungseinbußen, merkwürdige Verhaltensweisen und eine zu starke Kommerzialisierung des Produkts. In dieser Stimmungslage wirken positive Beiträge schnell wie gesteuert – egal ob sie echt sind oder nicht. Genau das ist das Dilemma: Wer sich online äußert, steht unter Bot-Verdacht. Das sorgt für Polarisierung, Rückzug und eine zunehmende Entfremdung auf den Plattformen. Selbst Menschen klingen manchmal schon wie Maschinen – oder wie Fans, die denselben Meme-Kanon abspulen. Was passiert, wenn OpenAI selbst ein Netzwerk baut? Gerüchte über ein eigenes Social Network von OpenAI gibt es seit Monaten. Eine Art X-Konkurrent, vielleicht als ChatGPT-Feature mit Feed und KI-generierten Inhalten. Doch ausgerechnet hier stellt sich die entscheidende Frage: Wie verhindert man, dass wieder alles „fake“ wirkt? Forschungen zeigen: Selbst reine Bot-Netzwerke entwickeln schnell Gruppendynamiken, bilden Lager, verstärken extreme Meinungen. Das Problem ist also nicht allein die Technik, sondern die Struktur dahinter. Vertrauen, Transparenz und eine neue Form von digitaler Identität wären nötig – sonst droht auch das nächste Netzwerk zur Simulation einer echten Debatte zu werden. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Sam Altman nennt X und Reddit „sehr fake“ und macht Bots, LLM-Sprech und Plattform-Anreize verantwortlich.
    Berichte und Daten stützen das: Fast die Hälfte des Traffics ist nicht-menschlich, „Bad Bots“ wachsen deutlich.
    Nach dem holprigen GPT-5-Start kochen Stimmungen hoch; selbst reine KI-Netzwerke bilden Echokammern.
    OpenAI soll an einem eigenen Netzwerk arbeiten – die eigentliche Hürde bleibt Identität, Incentives und Moderation.
    QUELLEN
    TechCrunch: Sam Altman says that bots are making social media feel ‘fake’
    Business Insider: Sam Altman says people are starting to talk like AI
    Imperva: 2024 Bad Bot Report
    TechCrunch: Altman on the bumpy GPT-5 rollout
    Science/AAAS: Polarization may be inherent in social media

  • Halo X: Diese KI-Brille hört alles mit – ohne dass du’s merkst

    Eine KI-Brille die mithört

    Halo X: Diese KI-Brille hört alles mit – ohne dass du’s merkst Wie funktioniert ein Gerät, das Gespräche heimlich mitschneidet und direkt Antworten liefert? Kurzfassung | Andreas Becker, 21.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Sie sieht aus wie eine ganz normale Brille – hört aber jedes Wort mit: Mit Halo X bringen zwei ehemalige Harvard-Studenten eine KI-Brille auf den Markt, die Gespräche aufzeichnet, transkribiert und dem Nutzer in Echtzeit Hinweise einblendet. Eine Kamera fehlt, eine Aufnahmelampe auch. Der Vorverkauf hat begonnen, doch das Konzept wirft ernste Fragen zum Thema Privatsphäre auf. NEWS Eine Brille, die mitdenkt Halo X will den Alltag erleichtern: Die Brille erkennt automatisch Gesprächsinhalte, reichert sie mit Informationen an und blendet diese ins Sichtfeld ein. Auf Wunsch liefert sie Antworten auf Rechenaufgaben, erklärt Fremdwörter oder erinnert an frühere Unterhaltungen. Möglich macht das ein Zusammenspiel aus Spracherkennung, Transkription und großen Sprachmodellen wie Gemini und Perplexity. Das Mikrofon läuft dauerhaft mit. Die Audioaufnahmen werden laut den Entwicklern nach der Transkription gelöscht. Gesteuert wird das Ganze per Smartphone-App, denn die Brille selbst hat weder genug Speicher noch Rechenleistung. Eine Kamera ist aktuell nicht verbaut – bleibt aber laut dem Team eine Option für die Zukunft. + Quelle: Brilliant Labs Technik trifft Kapital Der Preis für Halo X liegt bei 299 Dollar. Der Vorverkauf ist gestartet, ein genaues Lieferdatum steht noch aus. Gefertigt wird die Brille von einem nicht genannten Hersteller. Finanziert wird das Projekt von mehreren Wagniskapitalgebern, angeführt von Pillar VC. Insgesamt flossen eine Million Dollar in die Entwicklung. Beim Thema Datenschutz versprechen die Macher eine Ende-zu-Ende-Verschlüsselung. Außerdem soll die Plattform eine SOC-2-Zertifizierung erhalten – ein Standard für Datensicherheit. Konkrete Nachweise oder Zeitpläne dafür bleiben bisher offen. + Quelle: Brilliand Labs Graubereich Datenschutz Dass die Brille ohne sichtbare Aufnahmeanzeige auskommt, sorgt für Kritik. In mehreren US-Bundesstaaten dürfen Gespräche nur mit Zustimmung aller Beteiligten aufgezeichnet werden. Auch in Deutschland ist das heimliche Mitschneiden nicht erlaubt. Wer Halo X nutzt, bewegt sich also schnell in einem rechtlichen Graubereich. Brisant ist zudem die Vorgeschichte der beiden Gründer. Schon 2024 sorgten sie mit einer Demo für Aufsehen, bei der sie Metas smarte Ray-Ban-Brille mit Gesichtserkennung ausstatteten – und damit in Echtzeit fremde Menschen identifizierten. Die Aktion zeigte eindrücklich, wie schnell sich solche Technik missbrauchen lässt. Auch wenn Halo X keine Kamera besitzt, bleibt das Grundproblem bestehen: Eine Brille, die immer mithört, verändert die Erwartungen an Privatsphäre im öffentlichen Raum – und weckt Erinnerungen an alte Science-Fiction-Visionen, die längst Realität werden. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Die KI-Brille Halo X startet zum Preis von 249 Dollar in den Vorverkauf und bietet dauerhafte Gesprächsanalyse ohne sichtbare Aufnahmehinweise.
    Funktionen wie Live-Transkription, Fakteneinblendung und kontextbezogene Antworten basieren auf bekannten KI-Diensten wie Gemini und Perplexity.
    Die Brille verzichtet auf Kamera, nutzt aber ein dauerhaft aktives Mikrofon – was datenschutzrechtlich in vielen Ländern kritisch ist.
    Frühere Experimente der Gründer mit Gesichtserkennung zeigen: Die Debatte um KI und Überwachung wird mit Halo X neu entfacht.
    QUELLEN
    TechCrunch
    404 Media
    The Verge
    Soniox
    StGB § 201