KI-generierter Content: Wann wer bei Verletzung des Urheberrechts haftet
KI erschafft gänzlich Neues? Das wäre schön, ist aber ein Irrtum. Urheber geschützter Werke können vor Gericht ziehen, wenn KI-generierter Content auffällige Ähnlichkeiten zum Original aufweist. Ein anderslautendes Urteil ist kein Präzedenzfall.
Die Kreativbranche steckt in einem Dilemma: Einerseits bedienen sich Werbe- und Marketingspezialisten KI-Tools, die ihnen phantastisch und schnell neuen Content generiert. Andererseits droht ein Rechtsverstoß, wenn der automatisch erzeugte Inhalt einem urheberrechtlich geschütztem Werk zu ähnlich sieht. Vor allem bei Buchcovern ist das der Fall, sagt Michael Metzner, Rechtsanwalt für Urheber- und Medienrecht. "Viele denken, KI erschafft völlig neue Inhalte, doch in Wahrheit basiert sie auf bereits existierendem Material. Wenn dabei auffällige Ähnlichkeiten zu geschützten Werken entstehen, ist das ein ernsthaftes rechtliches Problem," sagt Michael Metzner, Rechtsanwalt für Urheber- und Medienrecht
Eine KI sei nicht in der Lage, eigenständig Urheberrechte zu erwerben – "das können nämlich nur natürliche Personen". Daher kann man eine KI nicht verklagen. In einem rechtsfreien Raum agiert KI dennoch nicht. Schließlich trainieren KI-Modelle auf Basis großer Mengen existierender Inhalte und kombinieren bekannte Elemente wie Formen, Texte, Farbverläufe und Tonfolgen zu neuen Werken. Aber: "Eigene Ideen hingegen hat eine KI nicht", sagt Metzner.
Wenn eine KI unberechtigterweise ein bestehendes Werk nahezu identisch repliziert, rückt somit die Frage in den Fokus, wer genau den Urheberrechtsverstoß zu verantworten hat. "Grundsätzlich kommen dabei drei Personengruppen als Verantwortliche infrage: die Entwickler und Betreiber der KI, der Anwender selbst und diejenigen, die KI-generierte Werke nutzen und verbreiten", so der Rechtsanwalt.
Geteilte Verantwortung für Urheberrechtsverstöße
Ob sich der Entwickler bzw. die Plattform, die die KI bereithält, in Regress nehmen lässt, hänge im Wesentlichen davon ab, wie der Algorithmus trainiert wurde. "Sind urheberrechtlich geschützte Werke in die Trainingsdaten eingeflossen, können gegebenenfalls Entwickler und Betreiber dafür zur Rechenschaft gezogen werden", warnt Metzner.
Ein wegweisendes Urteil in einem solchen Fall hat das Landgericht Hamburg gefällt (LAION-Fall, Urteil vom 27. September 2024 - 310 O 227/23). Das Gericht stellte klar, dass die kommerzielle Nutzung von Daten, die durch Data-Mining für nicht-kommerzielle Forschungszwecke erzeugt wurden, unter bestimmten Bedingungen zulässig sein kann. "Allerdings ist Vorsicht geboten, da das Urteil eine spezifische Konstellation betrifft und nicht verallgemeinert werden sollte", so Rechtsanwalt Metzner.
In diesem Rechtsstreit klagt ein Fotograf gegen das gemeinnützige Forschungsnetzwerk Laion. Laion stellt eine Datenbank mit fast 6 Milliarden Bild-Text-Paaren öffentlich zur Verfügung, die zum Training von KI-Systemen genutzt werden können. Eines der Bilder in dieser Datenbank stammte vom klagenden Fotografen, der die Nutzung des Fotos gerichtlich untersagen lassen wollte. Die Klage wurde in erster Instanz abgewiesen. Das Gericht Verneinte eine widerrechtliche Nutzung urheberrechtlich geschützter Werke für wissenschaftliche Zwecke, insbesondere für das Text- und Data Mining (TDM). Laion ist eine gemeinnützige Non-Profit-Organisation mit Sitz in Hamburg.
Geschädigte könnten Metzner zufolge dennoch unter Umständen den Anwender der KI oder die Nutzer KI-generierter Inhalte auf Schadenersatz und Unterlassung verklagen, falls die Inhalte eine starke Ähnlichkeit zu bestehenden Werken aufweisen. Ob der Ersteller bzw. Nutzer eines Werks von der Urheberrechtsverletzung weiß oder diese fahrlässig begeht, spiele bei der rechtlichen Betrachtung nur eine "untergeordnete Rolle". Auch "AI-Washing" stelle dabei keine Rechtfertigung dar – "bleibt die Ähnlichkeit zu geschützten Werken offensichtlich, handelt es sich unabhängig vom verwendeten Werkzeug um einen Urheberrechtsverstoß", so Metzger.
Nicht auf den Gesetzgeber warten, sondern jetzt handeln
Die rechtliche Behandlung KI-generierter Werke bleibt kompliziert. Zwar tritt auf EU-Ebene seit dem 2. Februar 2025 schrittweise die Verordnung über künstliche Intelligenz (KI-VO) in Kraft, die unter anderem "Strategien zur Einhaltung des Urheberrechts" und eine sogenannte Copyright Policy von Unternehmen fordert, die KI verwenden. Jedoch wird es wahrscheinlich noch einige Zeit dauern, bis die Verordnung vollständig in deutsches Recht umgesetzt ist. "Solange der Gesetzgeber keine eigenständige Haftungsregelung für KI-Inhalte schafft, stellen somit weiterhin die Bestimmungen des Deliktsrechts sowie das Urheberrecht die Grundlagen für Verfahren in Deutschland dar", sagt Rechtsanwalt Metzner.
Rechteinhabern empfiehlt er, bei verdächtigen KI-Inhalten einen Anwalt einzuschalten. "Durch Beseitigungs- und Unterlassungsklagen ist es möglich, die Verbreitung von KI-Inhalten zu unterbinden, während bereits begangene Verstöße Schadenersatzansprüche rechtfertigen". Die Herkunft der Trainingsdaten lasse sich einklagen.
Unternehmen, die KI verwenden, sollten daher ihre Trainingsdaten genau prüfen und ihre Mitarbeitenden in der rechtskonformen KI-Nutzung schulen. "Ferner gilt es, frühzeitig eine KI-VO-konforme Copyright Policy, Risikomanagement-Prozesse und automatisierte Filter für Inhalte zu etablieren und die Maßnahmen durch regelmäßige Audits fortlaufend anzupassen. Entstehen dennoch Konflikte, sollten Unternehmen den Dialog mit den Betroffenen suchen und gemeinsam eine Lösung erarbeiten, bevor es zu einer Klage kommt", so Rechtsanwalt Michael Metzner.
CRN-Newsletter beziehen und Archiv nutzen - kostenlos: Jetzt bei der CRN Community anmelden
Die renommierten CRN Channel Award 2025 für Hersteller, Distributoren, IT-Dienstleister, Managerinnern und Manager: Jetzt bewerben – alle Infos hier