KI-Verträge & Lizenzrecht

KI-Verträge sind die am schnellsten wachsende und am wenigsten standardisierte Vertragsgattung im Technologierecht. Klassische Softwareverträge greifen nicht: Der Gegenstand ist kein deterministisches Programm, sondern ein System, dessen Outputs statistisch, nicht kausal erzeugt werden. Das schafft rechtliche Fragen, auf die Standardformulare keine Antwort haben.
Ich gestalte KI-Vertrage, die diese Besonderheiten präzise abbilden: Wer hat welche Rechte an den Outputs? Welche Nutzungsbeschränkungen gelten für Trainingsdaten? Wie wird Haftung bei fehlerhaften Outputs verteilt? Und: Welche Pflichten aus dem EU AI Act müssen vertraglich weitergegeben werden?
Output-Eigentum: Wem gehören die Ergebnisse?
Die urheberrechtliche Lage bei KI-generierten Outputs ist in der EU durch Art. 4 Abs. 2 der Richtlinie (EU) 2019/790 (DSM-Richtlinie) und nationale Umsetzungsgesetze geprägt. Im deutschen Recht (Urheberrechtsgesetz, UrhG) setzt Urheberrechtsschutz eine persönliche geistige Schöpfung voraus (ss. 2 Abs. 2 UrhG). Outputs, die ohne hinreichende menschliche kreative Beteiligung erzeugt wurden, sind nicht schutzfähig.
Im englischen Recht ist die Situation anders: Section 9(3) des Copyright, Designs and Patents Act 1988 (CDPA) erkennt Urheberrechtsschutz für "computer-generated works" an, wobei Autor derjenige ist, "by whom the arrangements necessary for the creation of the work are undertaken." Das schafft Raum für Schutz von KI-Outputs in England, der in Deutschland nicht besteht.
Vertraglich bedeutet das: Auch wenn kein Urheberrecht an einem KI-Output entstanden ist, muss geregelt werden, wer welche Nutzungsrechte hat, wer das System und damit den Output kontrolliert, und ob der Auftraggeber das Recht hat, Outputs kommerziell zu verwerten. Schweigen des Vertrags schafft Unsicherheit, keine Sicherheit.
Trainingsdaten: Lizenz, Zweckbindung und DSGVO
Die Verwendung von Daten zum Training eines KI-Modells ist rechtlich in mehreren Dimensionen relevant:
Urheberrecht: Trainingsdaten, die urheberrechtlich geschützte Werke enthalten, können nur dann ohne Lizenz verwendet werden, wenn eine gesetzliche Schranke greift. Art. 4 DSM-Richtlinie (Text- und Data-Mining) erlaubt TDM für jedermann, sofern der Rechteinhaber die Verwendung nicht vorbehalten hat (Opt-out-Möglichkeit nach Art. 4 Abs. 3). Art. 3 DSM-Richtlinie erlaubt TDM ohne Opt-out-Möglichkeit fuer Forschungszwecke. Kommerzielles Training auf der Basis von Opt-out-freiem Material ist in der EU nach aktuellem Stand erlaubt, sofern kein wirksamer Vorbehalt erklärt wurde.
DSGVO: Enthalten die Trainingsdaten personenbezogene Daten, bedarf ihre Verwendung einer Rechtsgrundlage nach Art. 6 DSGVO. Web Scraping als Methode der Datenbeschaffung ist datenschutzrechtlich nicht per se unzulässig, unterliegt aber strengen Anforderungen an Transparenz und Zweckkompatibilität.
Vertragliche Beschränkungen: Viele Datensatze sind durch Nutzungsbedingungen geschützt, die das Training von KI-Modellen explizit ausschließen. Diese vertraglichen Beschränkungen sind von Urheberrechten zu unterscheiden und können separate Haftungsrisiken begründen.
Ich prüfe die Lizenzlage für Trainingsdaten und berate bei der Gestaltung von Datennutzungsvertragen, die eine rechtssichere Grundlage für das Training schaffen.
Haftungsarchitektur bei KI-Outputs
Die Haftung für fehlerhafte KI-Outputs ist rechtlich komplex. Im Vertragsrecht gilt: Wer einen bestimmten Output als Leistungsgegenstand schuldet, haftet für Mangelfreiheit. Wer eine Bemühensobligation schuldet (best efforts), haftet nicht für das Ergebnis. Diese Unterscheidung ist in KI-Vertragen oft nicht präzise getroffen.
Die neue Produkthaftungsrichtlinie (PLD, Richtlinie (EU) 2024/2853) gilt seit dem 9. Dezember 2024. Sie erfasst auch Software und KI-Systeme: Produkte, die aufgrund eines Fehlers Schaden verursachen, begegnen einer verschuldensunabhängigen Haftung des Herstellers. Ein KI-System, das fehlerhafte medizinische, rechtliche oder finanzielle Empfehlungen ausgibt und dadurch Schaden verursacht, kann unter die PLD fallen.
Die KI-Haftungsrichtlinie (AILD) befindet sich noch im Trilog-Verfahren. Sie sieht eine widerlegliche Kausalitätsvermutung vor: Wer als Betreiber eines Hochrisiko-KI-Systems seinen Pflichten nach dem EU AI Act nicht nachgekommen ist, muss im Haftungsprozess beweisen, dass der Schaden nicht auf das KI-System zurückzuführen ist.
Für Vertragsgestaltung bedeutet das: Haftungsklauseln in KI-Vertragen müssen, das sich ändernde Haftungsregime antizipieren. Statische Caps und Ausschlussklauseln können durch zwingendes Produkthaftungsrecht durchbrochen werden.
EU AI Act-konforme Vertragsklauseln
Der EU AI Act legt Anbietern von Hochrisiko-KI-Systemen Informationspflichten gegenüber Betreibern auf (Art. 13 EU AI Act): Betreiber müssen die Gebrauchsanleitungen erhalten, Informationen über Leistungsmerkmale und Einschränkungen, und über den Anwendungsbereich, für den das System ausgelegt ist.
Diese Pflichten müssen in Liefervertrage und Lizenzvereinbarungen übertragen werden. Klauseln, die diese Informationen als vertraulich behandeln oder den Weitergabepflichten des Betreibers entgegenstehen, können mit dem EU AI Act inkompatibel sein.
Ich entwickle Vertragsklauseln, die die Informationspflichten nach EU AI Act operativ abbilden und dabei kommerzielle Interessen der Parteien wahren.
Transparente Beratungspakete für diesen Bereich
Strukturierte Pakete mit klaren Leistungen und transparenten Preisen.
Häufig gestellte Fragen
Kann ich KI-Outputs urheberrechtlich schützen lassen?+
Im deutschen Recht regelmäßig nicht, wenn keine hinreichende menschliche kreative Beteiligung vorliegt. Im englischen Recht besteht unter Section 9(3) CDPA eine Möglichkeit des Schutzes als "computer-generated work." In der Praxis ist die Linie zwischen ausreichend menschlicher Beteiligung (z.B. durch aufwändiges Prompt Engineering) und rein maschinellem Output nicht klar gezogen. Die UK IP Office und das EUIPO haben konsultative Dokumente veröffentlicht, eine abschließende Rechtsprechung fehlt. Ich berate zur Maximierung des IP-Schutzes in diesem Unsicherheitsbereich.
Darf ich Kundendaten verwenden, um mein KI-Modell zu verbessern?+
Nur mit einer vertraglichen und datenschutzrechtlichen Grundlage. Die bloßen Nutzungsbedingungen reichen in der Regel nicht: Die Nutzung von Kundendaten zum Modelltraining bedarf einer expliziten Regelung im Hauptvertrag oder AVV und einer DSGVO-Rechtsgrundlage (in der Praxis oft berechtigte Interessen nach Art. 6 Abs. 1 lit. f, mit sorgfältiger Interessenabwägung, oder Einwilligung). Ohne klare Grundlage entstehen erhebliche Haftungsrisiken.
Wie begrenze ich als KI-Anbieter meine Haftung für Output-Fehler?+
Vertraglich: Klar definieren, dass KI-Outputs nicht als Beratungsleistung zu verstehen sind, menschliche Überprüfung empfohlen oder vorgeschrieben ist, und Haftung auf direkten Schäden begrenzt ist (Ausschluss von Folgeschaden). Achtung: Die neue PLD kann Haftungsbeschränkungen gegenüber Verbrauchern aushebeln, und bei Hochrisiko-KI nach EU AI Act genügt die vertragliche Begrenzung allein nicht. Ein vollständiger Haftungsausschluss ist in Deutschland nach ss. 309 Nr. 7 BGB gegenüber Verbrauchern und in bestimmten B2B-Konstellationen nach ss. 307 BGB unwirksam.
Die Inhalte dieser Seite dienen ausschließlich der allgemeinen Information und stellen keine Rechtsberatung im Einzelfall dar. Durch die Lektüre dieser Seite entsteht kein Mandatsverhältnis. Für eine verbindliche rechtliche Einschätzung wenden Sie sich bitte direkt an die Kanzlei.