Noten und Verbotsschild

GEMA ./. OpenAI: LG München I bejaht Verletzung des Urheberrechts

Heute, am 11. November 2025 hat die 42. Zivilkammer des Landgerichts München I im Verfahren GEMA ./. OpenAI zugunsten der GEMA entschieden (Az. 42 O 14139/24). Nach Auffassung des Gerichts verletzt ChatGPT Urheberrechte, wenn es Liedtexte ausgibt, die zuvor für das Training verwendet wurden. OpenAI muss die Nutzung unterlassen, Auskunft erteilen und Schadensersatz leisten; das Urteil ist nicht rechtskräftig.

Worum es konkret ging

Streitgegenstand waren neun deutschsprachige Songs – genannt wurden u. a. „Atemlos“, „Männer“, „Über den Wolken“, „In der Weihnachtsbäckerei“ und „Wie schön, dass du geboren bist“. Die Kammer sah es als erwiesen an, dass ChatGPT auf einfache Prompts komplette oder weitgehend identische Textpassagen dieser Lieder ausgeben konnte. Daraus leitete das Gericht ab, dass die Werke im Modell „memorisiert“ und damit vervielfältigt wurden.

Kernaussagen der Urteilsgründe

Nach den Gründen des LG München I liegt eine urheberrechtlich relevante Vervielfältigung sowohl im Modell (Memorisierung) als auch in den Ausgaben (Outputs) vor. Die Schranke für Text- und Data-Mining (§ 44b UrhG) greift nach Auffassung der Kammer nicht, wenn nicht nur Informationen extrahiert, sondern geschützte Werke selbst vervielfältigt und sogar wiedergegeben werden; auch § 57 UrhG (unwesentliches Beiwerk) scheidet aus. Maßgeblich sei zudem, dass die prägenden schöpferischen Elemente der Texte wiedererkennbar seien; die Verantwortung liege bei OpenAI, nicht bei den Nutzerinnen und Nutzern.

Tenor und Rechtsfolgen im Überblick

Das Gericht sprach der GEMA Unterlassung zu und bejahte Auskunfts- und Schadensersatzansprüche. OpenAI muss Informationen zum Umfang der Nutzung und zu daraus erzielten Erträgen herausgeben. Teile der Klage, die auf eine Verletzung des allgemeinen Persönlichkeitsrechts zielten, wies die Kammer ab.

Stand des Verfahrens und Ausblick

OpenAI hat das Urteil kritisiert und weitere Schritte in Aussicht gestellt. Die Entscheidung betrifft ein begrenztes Set an Liedtexten, entfaltet aber voraussichtlich Signalwirkung über den Musikbereich hinaus. Da die Entscheidung nicht rechtskräftig ist, sind Berufung und gegebenenfalls weitere Instanzen möglich. Gleichwohl hat OpenAI bereits reagiert: fragt man nach einem Songtext, kommt prompt die Antwort, dass dies aus urheberrechtlichen Gründen nicht möglich sei. Es wird lediglich eine kurze Zusammenfassung geliefert.

International wird das Urteil als möglicher Präzedenzfall für die Regulierung generativer KI in Europa bewertet.

Einordnung für die Praxis

Für Unternehmen, die ChatGPT und andere generative KI einsetzen oder integrieren, ist die Linie des LG München I klar: Training und Betrieb von Modellen dürfen nicht dazu führen, dass geschützte Werke „als solche“ im Modell fixiert und anschließend in identifizierbarer Form ausgegeben werden. Der Rückgriff auf § 44b UrhG trägt jedenfalls dann nicht, wenn das System geschützte Texte vollständig oder nahezu vollständig reproduziert. Damit steigt das Risiko, dass Anbieter Lizenzmodelle etablieren und Kunden die Einhaltung entsprechender Vorgaben vertraglich absichern müssen.

Handlungsempfehlungen für Rechts- und Compliance-Teams

Kurzfristig sollten Beschaffungs-, IT- und Rechtsabteilungen ihre Vertragspraxis anpassen. Dazu gehören Zusicherungen der Anbieter zu Trainingsdaten und Output-Filtern, klare Haftungs- und Freistellungsklauseln für Urheberrechtsverletzungen, Prüf- und Auditrechte sowie technische Maßnahmen, die verhindern, dass geschützte Werke identisch ausgegeben werden (z. B. Lyrics-Filter, Prompt- und Output-Monitoring).

Bei Eigenentwicklungen ist eine saubere Dokumentation der Trainingspipelines unerlässlich. Unternehmen sollten zudem Widersprüche von Rechteinhabern gegen Text-and-Data-Mining konsequent respektieren. Technisch wäre es naheliegend, Modelle mit reproduzierenden Evaluations-Prompts zu testen – also gezielt zu prüfen, ob geschützte Werke identisch ausgegeben werden. Doch hier entsteht das Dilemma: Solche Tests können selbst eine Urheberrechtsverletzung darstellen, wenn das Modell das Werk tatsächlich reproduziert. Eine urheberrechtliche Schranke für solche Compliance-Tests existiert nicht.

In der Praxis bleiben daher vor allem statistische Verfahren zur Erkennung von Overfitting und Memorisierung sowie Tests mit eigens erstellten Dummy-Daten. Alternativ könnten Unternehmen das Risiko bewusst eingehen und interne Stichprobentests dokumentieren – rechtlich abgesichert ist dieser Weg allerdings nicht.