Schlagwort: Autoren

  • Autoren verklagen sechs KI-Giganten wegen Buchpiraterie

    Pulitzer-Preisträger John Carreyrou und weitere Autoren verklagen OpenAI, Anthropic, Google, Meta, xAI und Perplexity wegen Buchpiraterie. Die KI-Unternehmen sollen ihre Werke aus illegalen Online-Bibliotheken gestohlen haben. Die Klage hat gute Karten, und dieses Mal sind die Kläger aufs große Geld aus statt auf die „Pennys“ eines Sammelklagen-Vergleichs.

    Der Artikel Autoren verklagen sechs KI-Giganten wegen Buchpiraterie erschien zuerst auf The Decoder.

  • KI schreibt besser als Stephen King?

    Zwei Bücher verschmelzen zu einem Autor

    Nano Banana

    Kurzfassung

    Quellen

    Eine neue Studie zeigt, dass KI-Modelle den Stil von Autoren mit nur zwei Büchern trainieren können. In Tests bewerteten Leser die KI-generierten Texte als stilistisch besser als die von professionellen menschlichen Autoren. Die Ergebnisse zeigen, dass die Menge der Trainingsdaten kaum einen Einfluss auf die Qualität der Imitation hatte. Die Studie verschärft die Debatte um das Urheberrecht, da sie das hohe Risiko einer Marktverdrängung für Autoren belegt.

    Chakrabarty et al. (Preprint, Studie) – Readers Prefer AI-Outputs Mimicking Copyrighted Books… Ars Technica – Two books enough to copy author’s style, new research says The Verge – AI models can mimic an author with just two books, study finds New York Times – Autoren gegen KI: Klagen, Risiken, neue Studie

    Eine neue Studie sorgt für Aufsehen in der KI-Branche. Forscher haben gezeigt, dass Sprachmodelle den Stil eines Autors bereits nach dem Training mit nur zwei Büchern imitieren können. In Tests übertraf die Künstliche Intelligenz sogar professionelle menschliche Schreiber. Die KI schreibt „echter“ als der Mensch Die Forschungsergebnisse, die kürzlich vorab veröffentlicht wurden, offenbaren eine beunruhigende Effizienz. Ein Team von Wissenschaftlern der Stony Brook University und der Columbia Law School führte ein gezieltes Feintuning von Sprachmodellen durch. Sie nutzten die Werke bekannter Autoren, um die KI auf deren einzigartigen Stil zu trainieren. Die zentrale Erkenntnis: Bereits der Inhalt von nur zwei Büchern genügt, um ein Modell auf einen Stil zu eichen. Überraschenderweise hatte die Menge der Trainingsdaten kaum einen Einfluss auf das Endergebnis. Ob die KI mit zwei Büchern oder einer deutlich größeren Textmenge trainiert wurde, die Qualität der Imitation blieb konstant hoch. Um die Ergebnisse zu validieren, ließen die Forscher die KI-generierten Texte gegen Texte von professionellen menschlichen Autoren antreten, die ebenfalls den Stil imitieren sollten. Eine Testgruppe aus Lesern, darunter sowohl Laien als auch Literaturexperten, bewertete anschließend die Texte. Das Resultat war eindeutig. Die Mehrheit der Testleser bevorzugte die von der KI erstellten Passagen. Sie bewerteten diese als stilistisch näher am Original und qualitativ hochwertiger als die Versuche der menschlichen Profis. + Quelle: https://arxiv.org/abs/2410.13591 Ein Alarmsignal für das Urheberrecht Diese Studie liefert neue Fakten für die ohnehin hitzige Debatte um KI und Urheberrecht. Autoren und Verlage führen bereits zahlreiche Klagen gegen große KI-Unternehmen. Der Vorwurf lautet meist, dass die Modelle illegal mit urheberrechtlich geschützten Büchern trainiert wurden. Bisher konzentrierte sich die Rechtslage jedoch primär auf die direkte Kopie von Textpassagen. Das Kernproblem ist, dass das Urheberrecht zwar den konkreten Ausdruck eines Werkes schützt, nicht aber den Stil eines Autors. Die neue Studie belegt nun, wie einfach und mit welch minimalem Datenaufwand dieser Stil kopiert werden kann. Die Forscher selbst warnen vor den Implikationen in dieser rechtlichen Grauzone. Die Ergebnisse könnten den Druck auf den Gesetzgeber erhöhen, neue Leitplanken zu definieren. Wenn eine KI den Stil eines Autors perfekt nachahmen und damit potenziell konkurrierende Werke schaffen kann, stellt dies eine direkte wirtschaftliche Bedrohung für die Schöpfer dar. Die Studie beweist, dass diese Bedrohung nicht länger theoretisch ist. Der Markt für Autoren gerät unter Druck Die Untersuchung legt auch die ökonomische Sprengkraft dieser Technologie offen. Die Kosten für das Feintuning eines Modells auf den Stil eines Autors sind verschwindend gering. Die Forscher beziffern den Aufwand auf wenige Dutzend Dollar pro Autor. Stellt man dem die Kosten für einen professionellen Ghostwriter oder einen menschlichen Autor gegenüber, der einen bestimmten Stil nachahmen soll, wird die Diskrepanz deutlich. Diese menschliche Arbeitskraft kostet ein Vielfaches. Die Studie zeigt, dass die KI nicht nur günstiger ist, sondern laut Testlesern auch bessere Ergebnisse liefert. Diese Entwicklung birgt ein erhebliches Risiko der Marktverdrängung für kreative Berufe, insbesondere für Auftragsautoren. Die Leichtigkeit, mit der eine KI einen Stil klonen kann, könnte die Art und Weise, wie Texte produziert werden, nachhaltig verändern. Die Studie liefert damit eine brisante Faktengrundlage für zukünftige rechtliche und wirtschaftliche Auseinandersetzungen.

  • Rekordvergleich: Autoren zwingen Anthropic zu 1,5 Mrd.

    Ein Drucker wird zu 1,5 Milliarden $

    Rekordvergleich: Autoren zwingen Anthropic zu 1,5 Mrd. Richter duldete legales Training, nicht aber Piraterie-Quellen. Der Deal könnte die Datenbeschaffung der ganzen Branche umkrempeln. Kurzfassung | Andreas Becker, 06.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Der KI-Entwickler Anthropic einigt sich mit Tausenden Autoren auf einen milliardenschweren Vergleich. Rund 500.000 Bücher wurden ohne Zustimmung zum Training der KI-Modelle verwendet – jetzt sollen pro Titel etwa 3.000 US-Dollar fließen. Zugleich muss das Unternehmen sämtliche Datensätze löschen, die aus Pirateriequellen stammen. Das US-Gericht muss dem Deal noch zustimmen. Sollte das geschehen, wäre es der bislang größte Copyright-Vergleich der KI-Geschichte. NEWS Der Vergleich in Zahlen 1,5 Milliarden US-Dollar – so viel ist Anthropic bereit zu zahlen, um eine Sammelklage von Autoren beizulegen. Die Kläger hatten dem Unternehmen vorgeworfen, ihre Werke über illegale Plattformen wie Library Genesis und Pirate Library Mirror heruntergeladen und in Trainingsdatensätze eingespeist zu haben. Entschädigt werden soll pauschal: etwa 3.000 Dollar pro betroffenen Buchtitel. Insgesamt geht es um rund eine halbe Million Werke. Neben der Geldzahlung muss Anthropic sämtliche Datensätze mit diesen Inhalten vernichten. Eine Rücknahme oder Schuldeingeständnis gibt es nicht – der Vergleich dient der außergerichtlichen Einigung. Die Zustimmung des zuständigen Gerichts in Kalifornien steht noch aus. Mit dem Deal entgeht das Unternehmen einem aufwendigen Schadensprozess, der ursprünglich für Ende des Jahres angesetzt war. Fair Use oder Urheberrechtsverletzung? Juristisch trennt der Fall zwischen zwei Ebenen: Das reine Training auf legal beschafften Büchern hatte das Gericht zuvor unter bestimmten Umständen als „Fair Use“ eingestuft – also erlaubt. Das massenhafte Einsammeln von Werken über Piraterieseiten hingegen nicht. Damit liegt der Fokus weniger auf der Technik, sondern auf der Herkunft der Daten. Für die Rechteinhaber ist der Fall ein Signal: Kreative Leistung darf nicht folgenlos kopiert werden, selbst wenn es um KI-Training geht. Gleichzeitig zeigt der Vergleich, dass sich der Graubereich zwischen Innovation und Rechtsbruch nicht mehr mit dem Verweis auf Technologie rechtfertigen lässt. Wer urheberrechtlich geschützte Inhalte verwendet, muss sich entweder auf ein gesetzlich gedecktes Modell stützen – oder eine Lizenz vorweisen. Anthropic selbst hatte zuvor argumentiert, man verwende nur öffentlich verfügbare Daten. Die Klage machte jedoch deutlich, dass dies nicht für alle Quellen galt. Folgen für die Branche Die Signalwirkung des Falls ist enorm. Andere KI-Unternehmen stehen nun stärker unter Druck, den Ursprung ihrer Trainingsdaten transparent zu machen. Wer auf legale Inhalte setzt und Lizenzvereinbarungen trifft, verschafft sich rechtliche Sicherheit. Für kleinere Anbieter könnte das aber auch bedeuten, dass der Zugang zu hochwertigen Trainingsdaten teurer wird. Bemerkenswert ist der Zeitpunkt: Nur wenige Tage vor Bekanntwerden des Vergleichs hatte Anthropic eine Finanzierungsrunde über 13 Milliarden US-Dollar abgeschlossen. Die Unternehmensbewertung stieg damit auf 183 Milliarden. Das nötige Kapital zur Aufarbeitung früherer Fehler ist also vorhanden. Ob andere Firmen nachziehen, bleibt offen – der Fall hat jedoch klar gemacht, dass Datenherkunft mehr ist als ein formaler Nebenaspekt. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Anthropic einigt sich mit US-Autoren auf 1,5 Mrd. US-$, ca. 3.000 US-$ pro betroffenen Buchtitel.
    Gericht muss zustimmen; Datensätze mit piraterierten Büchern werden gelöscht.
    „Fair Use“ fürs Training mit legalen Büchern bleibt unberührt, Piraterie nicht.
    Der Fall setzt Druck auf die Branche, Datenherkunft sauber zu lizenzieren.
    QUELLEN
    Associated Press
    Reuters (Settlement)
    The Washington Post
    U.S. District Court (Order on Class Certification, PDF)
    Reuters (Finanzierungsrunde)

  • Anthropic einigt sich außergerichtlich mit Autorengruppe im Streit um KI-Training

    Anthropic hat sich mit einer Gruppe von Autorinnen und Autoren außergerichtlich geeinigt, die das KI-Unternehmen wegen der Nutzung von über sieben Millionen aus Schattenbibliotheken geladenen Büchern verklagt hatten.

    Der Artikel Anthropic einigt sich außergerichtlich mit Autorengruppe im Streit um KI-Training erschien zuerst auf THE-DECODER.de.

  • Raubkopien für KI-Training: Autoren fordern 150.000 Dollar pro Buch von Microsoft

    Forschung zeigt: Hochwertige Bildungsdaten sind entscheidend für KI-Performance

    Microsoft wird von mehreren Autorinnen und Autoren verklagt. Sie werfen dem Unternehmen vor, ihre Bücher ohne Erlaubnis zum Training des KI-Modells Megatron genutzt zu haben.

    Der Artikel Raubkopien für KI-Training: Autoren fordern 150.000 Dollar pro Buch von Microsoft erschien zuerst auf THE-DECODER.de.