Generative AI vs. Urheberrecht – Was ändert sich durch den AI Act?
Generative AI wie ChatGPT, Midjourney und Co. setzen auf das Training mit riesigen Datenmengen, um auf der Grundlage dieser Daten neue Texte, Bilder oder Videos zu generieren. Die eingegebenen Daten werden nicht etwa von den Unternehmen hinter der Generative AI selbst erstellt, sondern haben oft eine:n Urheber:in wie z.B. eine:n Autor:in oder eine:n Künstler:in. Insbesondere seit dem durch ChatGPT ausgelösten KI-Boom Ende 2022 häufen sich die rechtlichen Konflikte zwischen den Urheber:innen und den Anbietern von Generative AI. Beispielsweise reichte eine Gruppe von Künstler:innen in den USA Anfang 2023 eine Sammelklage gegen mehrere Anbieter von Bildgeneratoren ein. Ende letzten Jahres zog die New York Times gegen OpenAI und Microsoft wegen angeblicher Nutzung mehrerer Millionen Zeitungsartikel für das Training ChatGPT vor Gericht. Auch in Deutschland gibt es erste Klagen dieser Art, wie die eines Fotografen gegen einen Verein, der u.a. Bilder des Fotografen zum Training von Generative AI zur Verfügung gestellt hat.
Am 13.03.2024 hat das EU-Parlament dem AI Act zugestimmt. Damit ist die Einführung der weltweit ersten umfassenden Regulierung von KI auf der Zielgeraden. Während des Gesetzgebungsverfahrens waren insbesondere auch die Transparenzpflichten der KI-Entwickler gegenüber Urheber:innen Gegenstand des Diskurses. Der europäische Gesetzgeber stand vor der Herausforderung, die legitimen urheberrechtlichen Interessen mit den Interessen der KI-Entwickler an Rechtssicherheit und einer maßvollen Regulierung abzuwägen.
I. Inhalt des AI Acts
Was ist überhaupt eine Künstliche Intelligenz nach dem AI Act? Über die Definition von KI wurde im Gesetzgebungsprozess viel diskutiert. Letztendlich hat sich eine Definition durchgesetzt, die der OECD-Definition gleicht. Entscheidend sind vor allem drei Kriterien: das System kann mit einem unterschiedlichen Grad an Autonomie betrieben werden, das System weist eine eigenständige Anpassungsfähigkeit auf und die Outputs des Systems lassen sich auf die Inputs zurückführen.
Der AI Act unterteilt KI-Systeme in drei verschiedene Kategorien: verbotene KI-Systeme, hochriskante KI-Systeme und KI-Systeme ohne Risiko. Kern des AI Acts sind die High-Risk KI-Systeme, für die umfassende Dokumentations-, Überwachungs- und Qualitätsanforderungen gelten. Zu den High-Risk KI-Systemen gehören beispielsweise KI in den Bereichen Beschäftigung und Personalmanagement oder kritische Infrastrukturen.
Besondere Regelungen gelten außerdem für sog. General Purpose AI (GPAI), also KI mit einem allgemeinen Verwendungszweck. Darunter fallen laut dem AI Act KI-Modelle, die eine „significant generality“ aufweisen und in der Lage sind, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Im Ergebnis werden dadurch KI-Modelle wie das Large Language Model (LLM) GTP-4 hinter der Anwendung ChatGPT erfasst. Die Anforderungen an diese Modelle umfassen vor allem Transparenz- und Dokumentationspflichten sowie die Einhaltung des EU-Urheberrechts. Für GPAI-Modelle „with systematic risk“ gelten strengere Anforderungen z.B. bzgl. ihres Qualitäts- und Risikomanagements. Dieses Risiko soll u.a. bei Modellen mit einem hohen Rechenaufwand für ihr Training vorliegen, sodass z.B. GPT-4 darunterfallen dürfte.
II. Schutz des Urheberrechts im AI Act
Zunächst fand als Reaktion auf das Erscheinen von ChatGPT Ende des Jahres 2022 Art. 28b AI Act-Parl Einzug in den AI Act. Die Regelung unterwarf die damals sog. Basismodelle strengen Pflichten wie der präventiven Risikoeindämmung und der öffentlichen Transparenz aller durch das Urheberrecht geschützten Trainingsdaten. Letztendlich konnte sich der Art. 28b AI Act-Parl aufgrund der vielfach geäußerten Bedenken („Innovationskiller“, „Wettbewerbsnachteil“ oder „Überregulierung“) nicht durchsetzen und wurde durch den neuen Titel 8a (Art. 52a ff.) ersetzt.
Art. 52c AI Act regelt die Verpflichtung zur Einführung einer Policy zwecks Einhaltung des EU-Urheberrechts. Insbesondere sollen die GPAI-Anbieter die urheberrechtlichen Nutzungsvorbehalte beim Text- und Data-Mining gem. Art. 4 der DSM-Urheberrichtlinie (hierzulande umgesetzt durch § 44b UrhG) beachten. Danach können sich Urheber:innen ihre Rechte vorbehalten, um ein Mining zu Trainingszwecken der GPAI verhindern.
Zwar sind in der Norm weiterhin umfassende Transparenz- und Dokumentationspflichten für die Anbieter von GPAI geregelt, wobei diese weitestgehend nun nicht mehr gegenüber der Öffentlichkeit gelten, sondern gegenüber Behörden und Anbietern von KI-Systemen, die das GPAI-Modell in ihr System integrieren möchten. Gegenüber etwaigen Urheberrechtsinhaber:innen sind die Informationspflichten der GPAI-Anbieter jedoch deutlich abgeschwächt worden. Es reicht bereits eine „sufficiently detailed summary of the content used for training”, die technisch nicht detailliert sein muss (Argument: Schutz von Geschäftsgeheimnissen), sondern etwaigen Urheberrechtsinhaber:innen lediglich die Durchsetzung ihrer Rechte erleichtern soll (Art. 52c Abs. 1 d) AI Act).
Nicht explizit geregelt, aber aus Erwägungsgrund 66j des AI Acts ersichtlich, ist die Verpflichtung von GPAI-Anbietern im EU-Ausland zur Einhaltung des EU-Urheberrechts. Damit wird eigentlich nicht im EU-Ausland anwendbares Unionsrecht auf dort ansässige GPAI-Anbieter übertragen, wenn sie ihr Produkt auf dem EU-Markt anbieten. Grund dafür ist der Schutz von EU-Anbietern vor unfairem Wettbewerb gegenüber Nicht-EU-Anbietern. Für Urheber:innen innerhalb der EU bedeutet diese Intention jedenfalls ein verbessertes Schutzniveau, weil sie innerhalb der EU auch gegenüber ausländischen GPAI-Anbietern ihre Rechte durchsetzen können.
Ein noch zu gründendes AI-Office soll mit den Befugnissen einer Marktüberwachungsbehörde, neben nationalen Marktüberwachungsbehörden, die Einhaltungen aller Verpflichtungen der KI-Anbietern kontrollieren. Außerdem wird es eine Vorlage für die zu veröffentlichende „sufficiently detailed summary of the content used for training“ bereitstellen.
III. Fazit
Der EU-Gesetzgeber hat zwar insbesondere die Transparenzpflichten der GPAI-Anbieter gegenüber Urheber:innen reduziert, jedoch auch klare rote Linien gezogen. Diese sollen etwaigen Rechteinhaber:innen die Durchsetzung ihrer Rechte erleichtern. Falls die Anforderungen an die GPAI-Anbieter in der Praxis tatsächlich zu ausreichend Transparenz für die Urheber:innen führen, ist dem Gesetzgeber ein guter Ausgleich zwischen den Interessen gelungen. Ansonsten vorprogrammierte, zahlreiche Rechtsstreitigkeiten zwischen Urheber:innen und GPAI-Anbietern könnten so in Zukunft reduziert werden. Entscheidend dürfte in diesem Zusammenhang sein, wie die vom AI-Office bereitzustellende Vorlage für die Zusammenfassung der verwendeten Trainingsdaten ausgestaltet sein wird.