Schlagwort: Wer

  • ElevenMusic bezahlt Nutzer für generierte KI-Songs

    elevenmusic musik

    ElevenMusic

    Kurzfassung

    Quellen

    ElevenLabs hat mit ElevenMusic eine neue Plattform gestartet, die das Generieren von KI-Musik mit einem eigenen Streaming-Dienst verbindet.
    Nutzer profitieren von sehr günstigen Tarifen mit bis zu 400 Tracks für 9,99 US-Dollar, dürfen die Lieder aber ausschließlich intern auf der Plattform nutzen.
    Wer durch seine erstellten Songs oder Remixe eine hohe Reichweite innerhalb der App erzielt, wird von ElevenLabs finanziell vergütet.

    ElevenLabs Blog – Introducing ElevenMusic
    ElevenMusic – Offizielle Webplattform

    ElevenLabs startet mit ElevenMusic ein eigenständiges Portal, welches die Erstellung von KI-Musik direkt an einen Streaming-Dienst koppelt. Konsumenten generieren dort nicht nur eigene Songs, sondern erzielen durch Aufrufe ihrer Titel auch finanzielle Einnahmen.

    Angepasstes Preismodell bei limitierter Lizenzierung Gegenüber der Hauptplattform senkt der Anbieter die Kosten für das Generieren von Audiospuren drastisch. Kostenlos erzeugen die KI-Modelle für jeden Account täglich sieben neue Tracks. Wer ein monatliches Abonnement für 9,99 US-Dollar abschließt, sichert sich ein Kontingent von 400 Liedern. Zum Vergleich liefert das reguläre System für denselben Betrag lediglich einen Bruchteil dieser Ergebnisse. + Quelle: ElevenMusic Begründet liegt diese signifikante Preisdifferenz in den strikten Nutzungsrechten der neuen Applikation. Sämtliche auf ElevenMusic generierten Werke dürfen die Anwender ausschließlich innerhalb dieses spezifischen Netzwerks veröffentlichen und anhören. Eine externe kommerzielle Nutzung, beispielsweise für Werbekampagnen oder fremden Marken-Content, untersagen die Bedingungen konsequent. Benötigen Produzenten derartige weitreichende Rechte, führt der Weg unweigerlich über das teurere Standardangebot ElevenCreative Music. Anzeige Interaktives Streaming und Vergütung für Künstler Neben der reinen Erstellung positioniert sich die Software als direkter Konkurrent zu etablierten Audio-Diensten. Über 4.000 Künstler stellen ihre Werke dort bereits bereit, welche Hörer direkt in der Anwendung konsumieren. Gefällt ein bestimmter Song, verändern Nutzer über integrierte Tools kurzerhand das Tempo oder verschieben den musikalischen Stil in ein völlig anderes Genre. Ebenso erlaubt die Architektur komplett neue Kompositionen von Grund auf, gesteuert durch präzise Texteingaben oder gewünschte Stimmungen. Erzielte Reichweite wandelt das System schließlich in monetäre Erträge um. Finden die publizierten Eigenkreationen oder Remixe ein entsprechend großes Publikum, erhalten die Schöpfer finanzielle Ausschüttungen. Als Blaupause für diesen Mechanismus dient das Konzept der bestehenden Stimmen-Bibliothek des Unternehmens, über welche bereits über elf Millionen US-Dollar an die Community flossen. Die Webversion sowie die entsprechende iOS-App stehen ab sofort zur Verfügung unter https://elevenmusic.io/ Wer die Musik allerdings überall verwenden möchte, muss die große Plattform nutzen: ANZEIGE

  • Anthropic-Studie: Wer KI länger nutzt, erzielt bessere Ergebnisse

    Der zweite Anthropic Economic Index analysiert, wie sich die Nutzung von Claude in der Wirtschaft verändert. Ein zentraler Befund: Wer länger mit dem KI-Modell arbeitet, erzielt messbar bessere Ergebnisse. Das könnte bestehende Ungleichheiten verschärfen.

    Der Artikel Anthropic-Studie: Wer KI länger nutzt, erzielt bessere Ergebnisse erschien zuerst auf The Decoder.

  • Nvidia-CEO Jensen Huang: Wer 500.000 Dollar verdient, muss 250.000 für KI-Tokens verbrauchen

    Nvidia-Chef Jensen Huang hat eine klare Erwartung an seine Entwickler: Wer eine halbe Million Dollar verdient, soll mindestens die Hälfte davon an KI-Tokens verbrauchen. Und er hat eine Meinung zum Billionen-Potenzial der KI-Branche.

    Der Artikel Nvidia-CEO Jensen Huang: Wer 500.000 Dollar verdient, muss 250.000 für KI-Tokens verbrauchen erschien zuerst auf The Decoder.

  • Auch neue LLMs wie GPT-5.2 und Claude 4.6 verlieren bei langen Chats massiv an Leistung

    Wer länger mit einem KI-Chatbot spricht, bekommt schlechtere Antworten. Daran hat sich auch mit neueren Modellen wenig geändert.

    Der Artikel Auch neue LLMs wie GPT-5.2 und Claude 4.6 verlieren bei langen Chats massiv an Leistung erschien zuerst auf The Decoder.

  • Beratungskonzern Accenture macht KI-Nutzung zur Beförderungsvoraussetzung

    Accenture überwacht individuelle KI-Tool-Logins und macht sie zum Beförderungskriterium. Wer sich nicht anpasst, muss gehen.

    Der Artikel Beratungskonzern Accenture macht KI-Nutzung zur Beförderungsvoraussetzung erschien zuerst auf The Decoder.

  • Anthropic-Studie: KI-Hilfe kann das Lernen neuer Programmier-Skills verschlechtern

    Wer neue Programmierfähigkeiten mit KI-Hilfe erlernt, schneidet bei Wissenstests deutlich schlechter ab. Das zeigt eine neue Studie von Anthropic, die vor einer zu aggressiven KI-Integration am Arbeitsplatz warnt.

    Der Artikel Anthropic-Studie: KI-Hilfe kann das Lernen neuer Programmier-Skills verschlechtern erschien zuerst auf The Decoder.

  • X-Coder übertrifft deutlich größere KI-Modelle dank rein synthetischer Trainingsdaten

    Neonfarbenes X-Coder-Logo vor digitalem Partikeleffekt, symbolisiert Geschwindigkeit und technische Innovation.

    Wer braucht schon echte Daten? Forscher zeigen, dass ein KI-Modell mit rein synthetischen Programmieraufgaben trainiert werden kann und dabei größere Konkurrenten schlägt. Mehr Aufgaben schlagen mehr Lösungen.

    Der Artikel X-Coder übertrifft deutlich größere KI-Modelle dank rein synthetischer Trainingsdaten erschien zuerst auf The Decoder.

  • ChatGPT scannt jetzt heimlich dein Alter beim Schreiben

    Ein Mann analysiert den ChatGPT Text

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI führt ein neues System ein, das anhand des Schreibstils und der Themenwahl automatisch das Alter der Nutzer vorhersagt. Wer vom Algorithmus als Minderjähriger eingestuft wird, landet automatisch in einem eingeschränkten Sicherheitsmodus ohne Zugriff auf sensible Inhalte. Die Maßnahme dient als Vorbereitung für den geplanten „Adult Mode“ und reagiert auf den wachsenden regulatorischen Druck durch den AI Act.

    OpenAI Blog – Age Prediction on ChatGPT (Official Announcement)

    The Verge – OpenAI and Anthropic Will Start Predicting When Users Are Underage

    Business Today – WEF Davos 2026: Child Safety Is Major Priority Says OpenAI’s Christopher Lehane

    Street Insider – OpenAI Rolls Out Age Prediction Feature for ChatGPT Teen Safety

    Investing.com – OpenAI Introduces Age Verification System to Enhance Child Safety

    OpenAI startet das Jahr 2026 mit einer kontroversen Neuerung für ChatGPT. Ein im Hintergrund laufendes System analysiert ab sofort Syntax und Themenwahl, um Rückschlüsse auf das Alter der Nutzer zu ziehen. Wer durch das Raster fällt, landet automatisch im eingeschränkten Teenager-Modus. Der unsichtbare Alters-Scan OpenAI setzt nicht mehr primär auf harte Ausweiskontrollen, sondern auf eine verhaltensbasierte Analyse. Das neue „Age Prediction“-Modell bewertet in Echtzeit, wie ein Nutzer mit dem Chatbot interagiert. Dabei werden komplexe Muster in der Sprache, der gewählten Tonalität und den angeschnittenen Themen untersucht. Das System arbeitet als unsichtbare Weiche, bevor der eigentliche Inhalt generiert wird. Bestehen Zweifel an der Volljährigkeit, greift das Prinzip der maximalen Vorsicht. Der Account wird ohne explizite Warnung in eine geschützte Umgebung überführt, die für Nutzer zwischen 13 und 17 Jahren ausgelegt ist. OpenAI nimmt dabei bewusst in Kauf, dass auch manche Erwachsene fälschlicherweise als Minderjährige eingestuft werden. Wer als Erwachsener wieder die vollen Funktionen nutzen will, muss sich im Zweifelsfall per Ausweis verifizieren. Anzeige Schutzmechanismen und der kommende „Adult Mode“ Die Konsequenzen dieser Einstufung sind weitreichend und verändern das Nutzererlebnis spürbar. Der Algorithmus blockiert im Teenager-Modus rigoros alle Inhalte, die als sexuell anzüglich oder potenziell verstörend gelten. Selbst harmlose Flirt-Versuche der KI werden unterbunden, während bei Themen wie Selbstverletzung sofortige Hilfsangebote und Interventionsmechanismen greifen. Gleichzeitig bereitet das Unternehmen den Weg für den lange erwarteten „Adult Mode“, der noch im ersten Quartal 2026 erscheinen soll. Dieser Modus verspricht weniger Restriktionen für verifizierte Erwachsene, setzt aber eine funktionierende Altersbestimmung voraus. Die aktuelle Einführung des Scanners ist somit die technische Vorstufe, um den Spagat zwischen Jugendschutz und liberaleren Inhaltsrichtlinien für Erwachsene zu meistern. Davos 2026: Sicherheit als Währung Der Zeitpunkt der Einführung korreliert direkt mit den Diskussionen auf dem aktuellen Weltwirtschaftsforum in Davos. Christopher Lehane, Global Affairs Officer bei OpenAI, betonte dort am Dienstag die Notwendigkeit robuster Sicherheitsarchitekturen. Nur durch proaktiven Jugendschutz könne verhindert werden, dass die Technologie durch staatliche Überregulierung ausgebremst werde. Die Branche steht unter massivem Druck durch den AI Act der EU und diverse US-Gesetze zur Online-Sicherheit von Kindern. Tech-Konzerne wie OpenAI oder Anthropic versuchen nun, durch technische Selbstregulierung den strengen gesetzlichen Vorgaben zuvorzukommen. Die Verantwortung für die Altersprüfung verschiebt sich damit endgültig vom Nutzer auf die KI-Systeme selbst.

  • Neuer Benchmark zeigt: LLMs scheitern noch an echter wissenschaftlicher Forschung

    Wer in Prüfungen Bestnoten erzielt, ist nicht automatisch ein guter Forscher. Diese Binsenweisheit aus dem akademischen Alltag trifft laut einer neuen Studie auch auf große Sprachmodelle zu.

    Der Artikel Neuer Benchmark zeigt: LLMs scheitern noch an echter wissenschaftlicher Forschung erschien zuerst auf The Decoder.