GEMA verklagt US-KI-Musik-Start-up Suno AI

Eine Studie der Cornell University zeigt, dass die Spracherkennungs-KI Whisper von OpenAI in rund 1,4 Prozent der untersuchten Audioaufnahmen Inhalte halluziniert, also Sätze und Phrasen einfügt, die im Original nicht vorkommen. Andere berichteten von deutlich höheren Halluzinationsraten von 50 Prozent und mehr. Längere Sprechpausen führen häufiger zu Halluzinationen. Das Problem der Halluzinationen betrifft auch KI-generierte Podcasts. Hier ist die Fehleranfälligkeit aufgrund der kreativen und teilweise ausschweifenden Interpretation der Inhalte besonders hoch. Menschliche Kontrolle bleibt daher bei allen KI-generierten Inhalten unerlässlich, egal ob es sich um Text, Audio oder Suchmaschinen handelt.

Die GEMA hat eine Klage gegen das US-Unternehmen Suno Inc. beim Landgericht München eingereicht.

Der Artikel GEMA verklagt US-KI-Musik-Start-up Suno AI erschien zuerst auf THE-DECODER.de.