Der anthropische Vergleich: Ein 1,5 Milliarden Dollar schwerer Präzedenzfall für KI und Urheberrecht

Letzte Woche konnte Anthropic, das KI-Unternehmen hinter dem Chatbot Claude, eine richtungsweisende Sammelklage mit einem Vergleich in Höhe von 1,5 Milliarden US-Dollar abschließen . Im Kontext von Urheberrechtsstreitigkeiten ist dieser Betrag sehr hoch, stellt jedoch nur einen Bruchteil der geschätzten Bewertung von Anthropic in Höhe von 183 Milliarden US-Dollar dar.
Autoren und Verleger, angeführt von Persönlichkeiten wie Andrea Bartz und Charles Graeber, warfen Anthropic vor, Millionen von Raubkopien aus Schattenbibliotheken wie Library Genesis illegal heruntergeladen zu haben, um Claude zu schulen, und damit gegen das Urheberrecht verstoßen zu haben. Der Vergleich sieht eine Entschädigung von rund 500.000 Autoren und Verlegern von etwa 3.000 Dollar pro betroffenem Werk vor. Anthropic bekannte sich zwar nicht schuldig, erklärte sich aber bereit, die illegalen Dateien zu vernichten und die Autoren zu bezahlen, um einen Prozess zu vermeiden. Die Authors Guild begrüßte den Vergleich als Präzedenzfall für die Lizenzierung von Inhalten in der KI-Entwicklung.
Dieser Fall wirft Fragen zu Eigentumsrechten im Zeitalter großer Sprachmodelle (LLMs) auf. Gerichte haben entschieden, dass die Neukombination bestehender Texte zu neuen Ergebnissen als „Fair Use“ gilt. Die Klage von Anthropic drehte sich jedoch um die Piraterie selbst, nicht um den Trainingsprozess. Was sollte das Gesetz zur Entschädigung von Autoren sagen, deren Werke indirekt KI-Innovationen vorantreiben? Die Antwort könnte nicht nur die Fairness, sondern auch die zukünftige Qualität von KI prägen.
Der Begriff „KI-Schrott“ beschreibt zunehmend minderwertige, maschinell erstellte Texte, die mit minimaler menschlicher Kontrolle erstellt werden. Wenn menschliches Schreiben aufgrund unzureichender Vergütung kein rentabler Beruf mehr ist, verlieren LLMs dann den Zugang zu aktuellen, hochwertigen Trainingsdaten? Könnte dies eine Rückkopplungsschleife schaffen, in der KI-Modelle, die mit schlechteren Ergebnissen trainiert wurden, stagnieren? Dieses Dilemma spiegelt die klassische Debatte „ Zugang versus Anreize “ im Immaterialgüterrecht wider: Der Zugang zu einem umfangreichen Korpus menschlich verfasster Texte ermöglicht es Unternehmern heute, leistungsstarke und kostengünstige LLMs zu entwickeln. Doch ohne Anreize für menschliche Autoren, weiterhin zu produzieren, könnte die Quelle hochwertiger Trainingsdaten versiegen.
Dieser Fall verwischt auch die traditionelle Trennung zwischen Urheberrecht und Patenten. Urheberrechtlich geschütztes Material, einst als statisch angesehen, treibt nun „Folgeinnovationen“ voran, die auf dem Originalwerk basieren. Das heißt, der Urheberrechtsschutz in diesem Fall betrifft KI-Inhalte, die vom urheberrechtlich geschützten Material beeinflusst werden, in einer Weise, die zuvor für neue Technologien galt, die auf patentierten technischen Erfindungen basierten. Somit gilt die Theorie „Zugang versus Anreize“ für das Urheberrecht genauso wie für Patente. Der Vergleich im Fall Anthropology signalisiert, dass das geistige Eigentumsrecht, das der rasanten Entwicklung der KI hinterherhinkt, angepasst werden muss. Autoren könnten zwar eine Entschädigung benötigen, aber die Unterbrechung des KI-Fortschritts zur Beilegung von Rechtsstreitigkeiten birgt die Gefahr, Innovationen zu ersticken.
Mit 1,5 Milliarden Dollar sendet der Vergleich eine klare Botschaft: Die Umgehung rechtlicher Schritte könnte kostspielig sein. Dies könnte kleinere KI-Unternehmen vom Markteintritt abhalten, insbesondere da ähnliche Klagen gegen andere Unternehmen drohen. Der Präzedenzfall könnte Entwickler zu Lizenzverträgen oder der Nutzung öffentlich zugänglicher Daten drängen, was die Kosten erhöht und die KI-Branche möglicherweise auf finanzstarke Unternehmen wie Anthropic konzentriert, die mit Milliarden an Finanzmitteln ausgestattet sind. Kleinere Start-ups, die sich weder Lizenzen noch Rechtsstreitigkeiten leisten können, könnten in Schwierigkeiten geraten. Dies wäre ein Fall von regulatorischen Hürden, die etablierte Unternehmen begünstigen. Könnte Anthropics Bereitschaft, eine so hohe Summe zu zahlen, ein strategischer Schachzug sein, um einen Schutzwall um kapitalstarke KI-Unternehmen zu errichten und so Emporkömmlinge abzuschrecken?
In einem Beitrag aus dem Jahr 2024 spekulierte ich, dass finanzkräftige KI-Unternehmen gezielt Autoren einstellen könnten, um den Bestand an qualitativ hochwertigen Texten zu erhöhen. In diesem Beitrag schrieb ich:
Die anthropische Einigung bestätigt diese Idee teilweise. Angesichts eines KI-Wettrüstens, bei dem Mark Zuckerberg Millionen ausgibt, um Ingenieure von OpenAI abzuwerben, erscheinen 1,5 Milliarden Dollar als ein bescheidener Preis für die Chance, die KI-Dominanz zu etablieren.
Der Fall Anthropic markiert derzeit einen entscheidenden Moment. Er unterstreicht die Notwendigkeit eines ausgewogenen Ansatzes und legt den Grundstein für die Koexistenz von KI und geistigem Eigentumsrecht in einer Ära beispiellosen technologischen Wandels.
Allerdings könnten die LLMs ab einem bestimmten Punkt einen Startpunkt erreichen, an dem sie so intelligent und handlungsfähig sind, dass sie keinen neuen Input von Menschen mehr benötigen. Das ist ein Horizont, über den ich nicht hinausblicken kann.
Joy Buchanan ist außerordentliche Professorin für Wirtschaftswissenschaften an der Samford University. Sie bloggt bei Economist Writing Every Day .
econlib