Adobe-Nutzer empört über geänderte Nutzungsbedingungen - steckt KI dahinter?
Adobe will sich von Nutzern von Photoshop- und Substance 3D unbegrenzten Zugriff auf deren Inhalte gewähren, auch wenn sie dies ablehnen. Warum Adobe so weitreichend eingreift, könnte mit KI-Trainingsmodellen zusammenhängen. Urheber sehen ihre Rechte verletzt. Gerichte betreten Neuland.
Adobe sieht sich nach der Veröffentlichung von Änderungen an seinen Geschäftsbedingungen mit einem Sturm der Entrüstung konfrontiert. Die Nutzer werden gezwungen, dem Unternehmen uneingeschränkten Zugang zu ihren Projekten zu gewähren, auch zu solchen, die unter die Geheimhaltungsvereinbarung fallen, um "Inhalte zu überprüfen" und andere Zwecke zu erfüllen.
Adobe will sich das Recht einräumen, "auf Ihre Inhalte sowohl mit automatischen als auch mit manuellen Methoden zuzugreifen". Inhalte sind für den Softwarehersteller: "alle Texte, Informationen, Mitteilungen oder Materialien wie Audiodateien, Videodateien, elektronische Dokumente oder Bilder, die Sie mit den Diensten und der Software hochladen, in diese importieren, zur Verwendung durch diese einbetten oder erstellen".
Sollen KI-Modelle angelernt werden?
Die neuen Bedingungen räumen Adobe sogar das Recht ein, die Inhalte der Abonnenten mithilfe von Techniken wie maschinellem Lernen zu analysieren. Dies hat viele zu der Vermutung veranlasst, dass das Unternehmen beabsichtigt, alle von Nutzern erstellten Inhalte zum Trainieren seiner KI-Modelle zu verwenden. Dieser Gedanke ist nicht abwegig, wenn man bedenkt, dass Adobe sich in letzter Zeit auf Produkte konzentriert hat, die auf generativer KI basieren, wie z. B. Firefly.
Die Allgemeinen Nutzungsbedingungen wurden im Februar 2024 aktualisiert, aber Adobe hat das Update in den letzten Tagen herausgebracht und Anwendungen wie Photoshop und Substance 3D, für die seine Nutzer bereits bezahlt haben, gesperrt, bis sie den neuen Bedingungen zustimmen.
Verärgerte Nutzer haben bemerkt, dass sie zwar die Möglichkeit haben, die Analyse von Inhalten abzulehnen. Adobe geht in den neuen Bedingungen aber soweit, auf die Inhalte der Nutzer unter "bestimmten begrenzten Umständen" dennoch zuzugreifen, auch wenn keine Zustimmung vorliegt.
Adobe reiht sich damit in die Riege der SaaS-Anbieter ein, die sich öffentlichem Unmut ausgesetzt sehen, weil sie ihren Kunden aktualisierte Bedingungen aufzwingen. KI ist in der Regel ein wichtiger Grund dafür.
Beispiel Microsoft. Der Konzern hat im letzten Monat die Funktion Recall eingeführt, die alle paar Sekunden einen Screenshot macht und jede Anwendung, Website, jedes Dokument und jede E-Mail, die ein Nutzer auf dem Computer öffnet, über die erstellte Zeitleiste zugänglich macht.
Die Funktion soll den Nutzern helfen, Informationen und Daten in Sekundenschnelle zu finden, aber Nutzer, Datenschutzgruppen und Aufsichtsbehörden sind seltsam zurückhaltend, wenn es darum geht, Microsofts Zusicherungen für bare Münze zu nehmen, dass der Datenschutz in Recall integriert sei.
Adobes Kommentar zu seinen in der Kritik stehenden Nutzungsbedingungen: "Diese Politik besteht seit vielen Jahren. Im Rahmen unserer Verpflichtung zur Transparenz gegenüber unseren Kunden haben wir Anfang dieses Jahres unsere Nutzungsbedingungen um Beispiele ergänzt, die verdeutlichen, wann Adobe auf Anwenderinhalte zugreifen darf. Adobe greift aus verschiedenen Gründen auf Anwenderinhalte zu, u. a. um einige unserer innovativsten Cloud-basierten Funktionen wie Photoshop Neural Filters und Remove Background in Adobe Express bereitstellen zu können und um gegen verbotene Inhalte vorzugehen. Adobe greift nicht auf Inhalte zu, die lokal auf dem Gerät eines Anwenders gespeichert sind, und sieht oder hört diese auch nicht an."
Nächste Seite: Gerichte müssen über Urheberrechte bei KI-Trainings entscheiden
Das Training von KI-Modellen mit Daten Dritter beschäftigt mittlerweile auch Gerichte. Denn oft werden Urheber von Inhalten und Inhaber von Nutzungsrechten wie Medienverlage gar nicht gefragt, ob sie der Verwendung ihrer Daten für das Training von KI-Modellen zustimmen.
"Bildgeneratoren mit Künstlicher Intelligenz werden in einer sogenannten Trainingsphase mit Milliarden von Fotos gefüttert, die zum größten Teil aus dem Internet stammen, also etwa von Webseiten der Fotografinnen und Fotografen, Posts auf Social-Media-Plattformen oder anderen online zugänglichen Veröffentlichungen. In den allermeisten Fällen geschieht dies ohne Wissen oder Zustimmung der BildautorInnen. Ob dies rechtlich zulässig ist, gilt unter JuristInnen als umstritten", sagt Sebastian Deubelli, Fachanwalt für Urheber- und Medienrecht von der SLD Intellectual Property Rechtsanwaltsgesellschaft in Landshut.
In den USA laufen seit vergangenem Jahr bereits etliche Klagen gegen Anbieter von KI-Modellen wegen Verstöße gegen das Urheberrecht. Letztinstanzlich ist noch nichts entschieden.
Auch das Landgericht Hamburg befasst sich mit einer entsprechenden Klage. Der Fotograf Robert Kneschke hatte gegen den Verein LAION e.V. geklagt, weil dieser seine Bilder ungefragt für das Training von KI-Modellen verwendet hatte. Er sieht seine Tätigkeit als freier Fotograf gefährdet. Tragisch: Er liefert unfreiwillig seine Daten an ein KI-Bildgenerator, der ihn arbeitslos machen würde. Die Materie dürfte komplex sein. Das Landgericht Hamburg hat den für Ende April 2024 angesetzten Gerichtstermin auf den 11. Juli 2024 verschoben.
Der Artikel basiert auf dem Bericht der CRN-Schwesterzeitschrift Computing und wurde von CRN ergänzt.