Die KI-Haftungsrichtlinie – Beweiserleichterungen für durch KI-Systeme entstandene Schäden?
Nachdem im Jahr 2021 der erste Entwurf der Kommission für die Verordnung zur Regelung von KI-Systemen vorgestellt wurde (KI-VO), folgte am 28.9.2022 ein Entwurf für eine KI-Haftungsrichtlinie (KI-Richtlinie). Die Richtlinie soll Geschädigten von KI-Systemen angepasste Rechtsinstrumente für den Schadensfall zur Verfügung stellen. Gemeinsam mit zwei weiteren Gesetzesvorhaben – der KI-VO und einer Überarbeitung der Produkthaftungsrichtlinie – soll die KI-Haftungsrichtlinie die Regulierung von KI in der Europäischen Union abrunden. Dieser Beitrag liefert einen ersten Einblick über die Hintergründe der Richtlinie und den Inhalt der neuen Regelungen.
Hintergründe der KI-Haftungsrichtlinie
Die sog. künstliche Intelligenz (KI) ist eine zukunftsweisende Technologie, die von vielen Unternehmen als Chance wahrgenommen wird und durch die vermehrte Nutzung generativer Modelle wie ChatGPT immer präsenter wird. Die Europäische Kommission strebt mit der KI-Haftungsrichtlinie eine Harmonisierung der Haftungsregeln an, um Vertrauen in KI-Systeme aufzubauen und Innovationen zu fördern. Die Richtlinie betrifft außervertragliche, verschuldensabhängige Haftungsfragen – also solche Fälle, in denen Personen potenziell für Schäden haftbar gemacht werden können, die sie nicht innerhalb von Verträgen, sondern aufgrund eigenen Fehlverhaltens verursacht haben.
Die Richtlinie zielt darauf ab, Personen, die sich auf durch KI-Systeme verursachte Schäden berufen, die Beweisführung vor Gericht zu erleichtern. Die Komplexität der KI-Systeme und das begrenzte technische Verständnis vieler Verbraucher erschweren den Nachweis des Verschuldens der Person, die potenziell für den Schaden haftbar ist. Dies gilt zum Beispiel für Diskriminierungsfälle, in denen KI-Systeme Vorurteile oder Stereotype reproduzieren und ihre automatisierten Entscheidungen Benachteiligungen hervorrufen oder verstärken. Ohne Kenntnis der Entscheidungsprozesse des KI-Systems wird es Opfern kaum möglich sein, ein Verschulden nachzuweisen.
Anwendungsbereich der KI-Haftungsrichtlinie und Abgrenzung zur Produkthaftung
Die KI-Haftungsrichtlinie hat nicht den Zweck, die Haftung von KI-Systemen umfassend zu regulieren. Sie soll EU-weit harmonisierte Verfahrensvorschriften für die Haftungsregulierung bewirken, ohne stark in nationale materielle Regelungen zur Schadensregulierung einzugreifen. Der sachliche Anwendungsbereich der KI-Richtlinie bestimmt sich nach der geplanten KI-Verordnung, indem auf die Begriffsbestimmungen wie z.B. „KI-System“ und „Anbieter“ der KI-VO-E verwiesen wird (Art. 2 KI-Richtlinie-E).
Die KI-Haftungsrichtlinie betrifft ausschließlich Fälle im Bereich des Zivilrechts, in denen unabhängig vom Bestehen eines Vertrags Schadensersatzansprüche aufgrund von Pflichtverletzungen durch fahrlässiges oder vorsätzliches Verhalten geltend gemacht werden. Hierbei sind nur Fälle umfasst, bei denen der Schaden im Zusammenhang mit einem KI-System steht (Art. 1 Abs. 1 und 2 KI-Richtlinie-E). Es werden keine spezifischen Definitionen von „Schaden“ und „Verschulden“ in der Richtlinie bereitgestellt, um die Umsetzung in nationales Recht zu erleichtern. Die Richtlinie gilt nicht für Haftungsvoraussetzungen im Verkehrssektor, die Vorschriften des Gesetzes über digitale Inhalte oder strafrechtliche Sachverhalte.
Die KI-Haftung ist in die Überarbeitung der Produkthaftungsrichtlinie eingebunden. KI-Haftungs- und Produkthaftungsrichtlinie sollen parallel gelten und verschiedene Aspekte abdecken.
Beweiserleichterungen: Offenlegungspflicht und Vermutungsregel
Die Artikel 3 und 4 bilden die Kernelemente der KI-Richtlinie. Hier werden die vorgesehenen Beweiserleichterungen normiert.
Für Anbieter und Nutzer von KI-Systemen bestimmt die Richtlinie eine Offenlegungspflicht von Beweismitteln (Art. 3 Abs. 1 KI-Richtlinie-E). Zweck ist, der oder dem potenziell Geschädigten die Ermittlung des Verantwortlichen und der Schadensursache zu erleichtern. Kläger:innen müssen hierfür einen plausiblen Schadensersatzanspruch darlegen und verhältnismäßige Versuche unternehmen, die Beweismittel zu erhalten. Die Offenlegungspflicht wird durch Gerichtsentscheidungen auf das erforderliche Maß begrenzt, um Geschäftsgeheimnisse zu schützen (Art. 3 Abs. 4 KI-Richtlinie-E). Bei Nichteinhaltung besteht eine widerlegbare Verschuldensvermutung, und die Gerichte können die Sicherung der Beweismittel anordnen (Art. 3 Abs. 3 und 5 KI-Richtlinie-E).
Weitergehend wird eine widerlegbare Kausalitätsvermutung für beeinträchtigte Personen durch KI-Systeme eingeführt (Art. 4 KI-Richtlinie-E). Das heißt, dass vermutet wird, dass ein sorgfaltspflichtwidriges Verhalten ursächlich für den eingetretenen Schaden ist, wenn bestimmte Voraussetzungen der Norm erfüllt sind. Die Voraussetzungen für die Kausalitätsvermutung sind:
- Der oder die Kläger:in muss das Verschulden der beklagten Person und die Verletzung einer Sorgfaltspflicht nachweisen, wobei die Offenlegungspflicht helfen kann.
- Der oder die Kläger:in muss nachweisen, dass durch das KI-System ein Schaden entstanden ist.
Bei Hochrisiko-KI-Systemen genügt jedoch bereits der Nachweis bestimmter Sorgfaltspflichtverletzungen (Art. 4 Abs. 2 KI-Richtlinie-E). Im Gegensatz dazu gibt es jedoch auch Ausnahmen von der Kausalitätsvermutung, insbesondere wenn ein Wissensvorsprung der oder des Beklagten nicht vorliegt und ein Ausgleich i. S. d. Vermutungsregel daher nicht erforderlich ist. Das ist etwa der Fall, wenn der oder die Kläger:in nachweislich ausreichende Beweismittel hat oder der Nachweis bei einem KI-System mit geringem Risiko übermäßig schwierig ist. Zusammenfassend lässt sich sagen, dass die KI-Richtlinie hauptsächlich um zwei Instrumente kreist, um die Haftung und Verantwortlichkeit im Umgang mit KI-Systemen transparenter zu gestalten: die Offenlegungspflicht von Beweismitteln und die widerlegbare Kausalitätsvermutung.
Fazit: Ausblick zur möglichen Einführung der KI-Haftungsrichtlinie
Die KI-Richtlinie-E wird nun von EU-Parlament und EU-Rat geprüft und überarbeitet. Sollte das Gesetzesvorhaben erfolgreich umgesetzt werden, wird die Kommission im Bedarfsfall fünf Jahre nach Inkrafttreten der KI-Richtlinie prüfen, ob Regeln für die verschuldensabhängige Haftung für Ansprüche im Zusammenhang mit KI erforderlich sind (Art. 5 KI-Richtlinie-E).
Informationen über die komplexen Funktionsweisen von KI-Systemen werden nicht ohne weiteres für Kläger:innen verständlich sein. Ob die Offenlegungspflicht daher tatsächlich zu einer einfacheren Beweisführung führen kann, ist fraglich. Trotzdem ist positiv zu bewerten, dass der Umfang der Richtlinie im Vergleich zu anderen Gesetzesvorschlägen begrenzt ist. Daher werden die Unternehmen nicht mit einer weiteren Vielzahl an Regularien zum Einsatz von KI belastet, selbst wenn weiterhin viele Fragen im Bereich der Regulierung von KI-Systemen offenbleiben.
In Hinblick auf den Gesamtkontext des geplanten KI-Haftungsrahmens ist jedoch zu bemängeln, dass drängende Haftungsfragen nun unzusammenhängend durch verschiedene Gesetze beantwortet werden. Das Zusammenspiel von KI-Haftungsrichtlinie, Produkthaftungsrichtlinie und KI-Verordnung dient nicht der Übersichtlichkeit und Rechtssicherheit von Betroffenen. Bereits vor Verabschiedung der Richtlinie wird daher Kritik laut, die hier eine verpasste Chance für ein kohärentes Regelwerk sieht.
Aufgrund des frühen Stadiums des Gesetzgebungsverfahrens ist davon auszugehen, dass noch einige Änderungsvorschläge in den Entwurf eingearbeitet werden, bis der Entwurf schlussendlich angenommen wird. Ein Zeitplan ist noch unklar, vermutlich wird die Richtlinie gemeinsam mit der KI-VO in Kraft treten.
Ihr Experte zu diesem Thema
Dr. Matthias Lachenmann, Rechtsanwalt und Partner
Telefon: +49 221 / 270 956 – 180, E-Mail: matthias.lachenmann@bho-legal.com