KI-Haftungsregelungen
![]() Richtlinie (EU) 2025/ | |
---|---|
Titel: | Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz |
Kurztitel: | AI Liability Directive/Richtlinie über KI-Haftung |
Bezeichnung: (nicht amtlich) |
AILD |
Geltungsbereich: | EWR |
Rechtsmaterie: | Binnenmarkt, Cybersicherheit |
Grundlage: | AEUV, insbesondere Art. 114 |
Anzuwenden ab: | Vorschlagsstadium |
Fundstelle: | Noch nicht im ABl veröffentlicht |
Volltext | Konsolidierte Fassung (nicht amtlich) Grundfassung |
Regelung ist ein aktueller Vorschlag im Rechtsetzungsprozess. | |
Hinweis zur geltenden Fassung von Rechtsakten der Europäischen Union |
![]() Richtlinie (EU) 2024/2853 | |
---|---|
Titel: | Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates |
Kurztitel: | Product Liability Directive/Produkthaftungsrichtlinie (neu) |
Bezeichnung: (nicht amtlich) |
PLD/PHRL |
Geltungsbereich: | EWR |
Rechtsmaterie: | Binnenmarkt, Cybersicherheit |
Grundlage: | AEUV, insbesondere Art. 114 |
Anzuwenden ab: | 9. Dezember 2026 (Umsetzung) |
Fundstelle: | ABl L 2024/2853, 1 |
Volltext | Konsolidierte Fassung (nicht amtlich) Grundfassung |
Regelung muss aktuell in nationales Recht umgesetzt werden. | |
Hinweis zur geltenden Fassung von Rechtsakten der Europäischen Union |
Einleitung
Im Bereich der Regulierung künstlicher Intelligenz durch die EU wurden neben dem AI Act von der Kommission auch Vorschläge für spezifische Haftungsregelungen in diesem Zusammenhang vorgelegt. Dies beinhaltete zum einen den Vorschlag für eine neue Produkthaftungsrichtlinie, welcher zwar auch andere Hintergründe hatte, aber durch einige Aspekte insbesondere auch auf künstliche Intelligenz (KI) abzielte, und zum anderen einen Vorschlag für eine eigene AI Liability Directive (AILD).[1]
Während die neue Produkthaftungsrichtlinie, wie auch bisher, im Wesentlichen auf die Festlegung von Regelungen für eine verschuldensunabhängige (zivilrechtliche) Haftung abzielen sollte, adressierte der Vorschlag für die AILD insbesondere Beweiserleichterungen im Rahmen der (prinzipiell weiterhin) aus nationalen bzw unionsrechtlichen Regelungen ableitbaren außervertraglichen, verschuldensabhängigen, zivilrechtlichen Haftung.[2] Dadurch sollte vorrangig (Beweis-)Problematiken entgegengetreten werden, die mit gewissen Eigenschaften von KI in Verbindung gebracht wurden, wie deren Komplexität und Undurchsichtigkeit (die wiederum insgesamt als Blackbox-Effekt bezeichnet werden). Angesprochen wurden dabei insbesondere Nachweise für die Aspekte Kausalität und Verschulden.[3] Den Erläuterungen zufolge wurden in dem Zusammenhang verschiedene Optionen abgewogen und sich vorerst gegen die Statuierung einer eigenen (verschuldensunabhängigen) Haftung für KI entschieden, was allerdings demnach nach einer gewissen Zeit noch einmal evaluiert werden sollte (siehe im Detail Artikel 5 AILD-Vorschlag).[4]
Im Rahmen der neuen Produkthaftungsrichtlinie sollte nach weitreichenden Unklarheiten[5] in diesem Zusammenhang nunmehr Software (und damit auch KI) explizit in den Produktbegriff aufgenommen werden. Darüber hinaus zielen auch gewisse Aspekte der neuen Produkthaftungsregelungen mehr oder weniger spezifisch auf KI bzw deren Besonderheiten ab.[6]
Beide Vorschläge zielten auf Richtlinien ab, was insbesondere bedeutet, dass diese prinzipiell zunächst durch die Mitgliedstaaten in nationales Recht umgesetzt werden müssten, um Geltung zu erlangen. Allerdings sind die jeweiligen Gesetzgebungsverfahren sehr unterschiedlich verlaufen. Die neue Produkthaftungsrichtlinie ist mittlerweile im Amtsblatt der EU veröffentlicht worden[7] und prinzipiell in Kraft getreten, während das Gesetzgebungsverfahren für die AILD aufgeschoben wurde und inzwischen diverse Änderungen des Vorschlags diskutiert werden. Siehe im Detail jeweils unter Vorschlag für AI Liability Directive bzw Produkthaftungsrichtlinie neu.
Vorschlag für AI Liability Directive
Überblick und Anwendungsbereich
Der Vorschlag für eine AI Liability Directive (AILD) wurde 2022 von der Kommission vorgelegt.[8] Dabei wird jedoch berichtet, dass der Gesetzgebungsprozess zwischenzeitlich aufgeschoben wurde, insbesondere um zunächst die gesetzgeberische Fertigstellung des AI Acts abzuwarten und dass nunmehr von der Kommission nicht öffentlich ein überarbeiteter Vorschlag ausgesendet wurde, der insbesondere an den inzwischen veröffentlichten AI Act, aber zumindest mitunter auch in Bezug auf seine konkreten Regelungen, angepasst worden sein soll.[9] Im September 2024 wurde zudem eine Studie des European Parliamentary Research Service (EPRS) publiziert, im Rahmen welcher insbesondere eine gemischte (verschuldensab- und unabhängige) Haftung vorgeschlagen wird sowie die Ausweitung Anwendungsbereichs der Richtlinie (etwa auf Software generell).[10]
Demnach wird im Folgenden nur auf den ursprünglichen Vorschlag der Kommission detaillierter eingegangen.
Dieser enthält im Wesentlichen zwei Elemente, die als Beweiserleichterungen bei der Geltendmachung von Schadenersatz im Zusammenhang mit KI dienen sollen: zum einen eine Offenlegungspflicht für bestimmte KI-Systeme und zum anderen eine Kausalitätsvermutung im Zusammenhang mit KI-Systemen generell.[11] Bereits der ursprüngliche Richtlinienvorschlag hat Begrifflichkeiten und Systematik (etwa hinsichtlich KI-Systemen und gewissen, mit diesen in Verbindung stehenden Akteuren) aus dem damals vorliegenden AI Act-Vorschlag übernommen, die jedoch teilweise nicht mehr jenen der veröffentlichten Version des AI Act entsprechen.[12] Dies betrifft etwa Nutzer von KI-Systemen, die in der im Amtsblatt veröffentlichten Fassung des AI Act nunmehr dem Betreiber gemäß Artikel 4 Ziffer 4 entsprechen würden.
Dabei ist anzumerken, dass der AI Act (in der im Amtsblatt veröffentlichten Fassung) zwar eine allgemeine Definition von KI-Systemen enthält, in der Folge jedoch insbesondere Regelungen für bestimmte Risikoklassen solcher Systeme (siehe Artificial Intelligence Act (AIA)). KI-Systeme, die nicht diesen Risikoklassen zuzuordnen bzw von entsprechenden (AI Act-)Regelungen erfasst sind, wären demnach jedoch zumindest im Rahmen der AILD relevant. In dem Zusammenhang verweisen die Erwägungsgründe des AILD-Vorschlags darauf, dass auch bei nicht-Hochrisiko-Systemen bestimmte KI-Merkmale, wie Autonomie und Undurchsichtigkeit, zu Beweisschwierigkeiten führen könnten.[13]
Mit dem Richtlinienvorschlag wird ein Mindestharmonisierungsansatz verfolgt, wodurch „es Klägern im Fall eines durch KI-Systeme verursachten Schadens“ ermöglichen soll „sich auf günstigere Vorschriften des nationalen Rechts zu berufen“ (Erwägungsgrund 15).[14] Weiters soll die vorgeschlagene Richtlinie quasi nur bestimmte ergänzende Regelungen in Bezug auf die bestehenden Haftungssysteme für die zivilrechtliche (nicht strafrechtliche), verschuldensabhängige, außervertragliche Haftung für durch KI-Systeme verursachten Schäden einführen.[15] In Bezug auf entsprechende Verschuldenshaftungen hält Erwägungsgrund 3 im Allgemeinen auch Folgendes fest, was gewissermaßen als Ausgangsbasis zu sehen ist:
„Wenn ein Geschädigter für einen entstandenen Schaden Schadensersatz verlangt, so muss er nach den allgemeinen Vorschriften der Mitgliedstaaten für die verschuldensabhängige Haftung in der Regel eine fahrlässige oder vorsätzliche schädigende Handlung oder Unterlassung („Verschulden“) der Person, die potenziell für diesen Schaden haftbar ist, sowie einen ursächlichen Zusammenhang zwischen diesem Verschulden und dem betreffenden Schaden nachweisen.“ (Hervorhebungen hinzugefügt)
Der eingeschränkte Anwendungsbereich wird konkret insbesondere durch Artikel 1 sowie die Definition von Schadenersatzansprüchen, auf die sich die Richtlinie beziehen soll (Artikel 2 Ziffer 5 AILD), umgesetzt. Diese Defintion umfasst demach: „einen außervertraglichen verschuldensabhängigen zivilrechtlichen Anspruch auf Ersatz des Schadens, der durch ein Ergebnis eines KI-Systems oder aber dadurch, dass dieses System das von ihm erwartete Ergebnis nicht hervorgebracht hat, verursacht wurde“.
Auch Beklagte und Kläger werden in der Richtlinie definiert (Artikel 2 Ziffern 6 bis 8 AILD). Beklagte können demnach (alle) Personen sein, „gegen die ein Schadensersatzanspruch geltend gemacht wird“ (Artikel 2 Ziffer 8 AILD). Die Definition von Kernbegriffen, wie Schaden oder Verschulden und die Regelung von allgemeinen Aspekten der Haftung soll dabei aber prinzipiell (anderen) Vorschriften des Unions- bzw nationalen Rechts überlassen werden.[16]
Kausaltitätsvermutung (Artikel 4)
Artikel 4 regelt als einen zentralen Aspekt der Richtlinie eine widerlegbare Kausalitätsvermutung. Unter gewissen Voraussetzungen soll dabei bei der Anwendung von Haftungsvorschriften in Bezug auf erfasste Schadenersatzansprüche ein ursächlicher Zusammenhang „zwischen dem Verschulden des Beklagten und dem vom KI-System hervorgebrachten Ergebnis oder aber der Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat“ vermutet werden (Artikel 4 Absatz 1 AILD).
Die Voraussetzungen sind dabei prinzipiell, dass der Kläger nachweist, "dass ein Verschulden seitens des Beklagten oder einer Person, für deren Verhalten der Beklagte verantwortlich ist, vorliegt, da gegen [...]" einschlgägige Sorgfaltspflichten verstoßen wurde (Artikel 4 Absatz 1 Buchstabe a AILD), sowie dass das Ergebnis oder Nicht-Ergebnis des KI-Systems zu dem entsprechenden Schaden geführt hat (Artikel 4 Absatz 1 Buchstabe c AILD). Unter "Sorgfaltspflicht" versteht Artikel 2 Ziffer 9 AILD "einen im nationalen Recht oder im Unionsrecht festgelegten Verhaltensmaßstab, der einzuhalten ist, um eine Beeinträchtigung von im nationalen Recht oder im Unionsrecht anerkannten Rechtsgütern, einschließlich Leben, körperlicher Unversehrtheit, Eigentum und Wahrung der Grundrechte, zu vermeiden".
Ein für die Kausalitätsvermutung einschlägiger Sorgfaltspflichtverstoß kann im Kontext von Hochrisiko-KI bei einem Verstoß gegen eine Anordnung zur Offenlegung oder Sicherung von entsprechenden Beweismitteln gemäß Artikel 3 Absatz 5 AILD (siehe Offenlegungspflicht (Artikel 3)) auch vermutet werden. Dabei ist allerdings nicht ganz klar, ob nur der (objektive) Pflichtenverstoß oder auch ein (subjektives) Verschulden vermutet werden soll, weil sich Artikel 3 Absatz 5 (nur) auf den Verstoß gegen einschlägige Sorgfaltspflichten bezieht, während Artikel 4 Absatz 1 Buchstabe a davon spricht, dass "gemäß Artikel 3 Absatz 5" vermutet werden soll, "dass ein Verschulden''' [...] vorliegt".[17]
Für die Kausalitätsvermutung muss zudem auf „Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden" können, "dass das Verschulden das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat“ (Artikel 4 Absatz 1 Buchstabe b AILD).
Die wesentliche Konsequenz der Kausalitätsvermutung wäre demnach eine gewisse gedankliche Verlagerung des (Nicht-)Resultats einer KI hin zu einer entsprechenden Handlung oder Unterlassung einer Person.
Für die Anwendung der Vermutung gibt als allerdings auch einschränkende Voraussetzungen:
- Im Rahmen der dabei relevanten Sorgfaltspflichten sollen einerseits nur solche erfasst sein, deren unmittelbarer Zweck die Verhinderung des eingetretenen Schadens ist.
- Hinsichtlich Hochrisiko-KI-Systemen sollen jedenfalls bei deren Anbietern und diesen gleichgestellten Personen nur bestimmte Pflichten nach dem AI Act in Frage kommen, wie etwa die Konzeption gemäß den Transparenzanforderungen des AI Act (Artikel 4 Absatz 2 AILD).
- In Hinblick auf Nutzer von Hochrisiko-KI ist prinzipiell eine ähnliche Regelung vorgesehen (Artikel 4 Absatz 3 AILD). Allerdings geht aus dieser nicht eindeutig hervor, ob die darin aufgezählten AI Act-Pflichten wie bei KI-Anbietern als eine ausschließliche Aufzählung zu werten sind oder lediglich als Beispiele für einschlägige Pflichtverstöße, insbesondere da in diesem Bereich nach den Erwägungsgründen zumindest andere Pflichten nach anderen Rechtsakten in Frage kommen sollen (vgl Erwägungsgründe 24 und 26).
- Sofern ein Beklagter das KI-System „im Rahmen einer persönlichen nicht beruflichen Tätigkeit verwendet“, wäre die Vermutung im Allgemeinen nur dann anwendbar, „wenn der Beklagte die Betriebsbedingungen des KI-Systems wesentlich verändert hat oder wenn er verpflichtet und in der Lage war, die Betriebsbedingungen des KI-Systems festzulegen, und dies unterlassen hat“ (Artikel 4 Absatz 6 AILD).
Die Vermutung könnte zudem vom Beklagten widerlegt werden (Artikel 4 Absatz 7 AILD).
Offenlegungspflicht (Artikel 3)
Die Offenlegungspflicht gemäß Artikel 3 AILD soll sich auf einschlägige Beweismittel zu im Schadensverursachungsverdacht stehenden Hochrisiko-KI-Systemen, beziehen, die Anbietern, Personen, die den Pflichten eines Anbieters unterliegen, oder Nutzern vorliegen.
Dabei sollen nämlich diejenigen verpflichtet werden, die relevante Beweismittel – etwa aufgrund entsprechender Dokumentationspflichten gemäß AI Act – innehaben (Erwägungsgrund 16 AILD).
Zur Geltendmachung berechtigt – durch Antrag bei Gericht – wären grundsätzlich entsprechende Kläger und potenzielle Kläger (Artikel 2 Ziffern 6 und 7 AILD). Dabei soll aber der Unterschied bestehen, dass ein potenzieller Kläger zuerst vergeblich zur Offenlegung aufgefordert haben und „[z]ur Stützung seines Antrags [...] die Plausibilität seines Schadensersatzanspruchs durch die Vorlage von Tatsachen und Beweismitteln ausreichend belegen“ müsste (Artikel 3 Absatz 1 AILD), während ein tatsächlicher Kläger als Voraussetzung für die gerichtliche Anordnung „alle angemessenen Anstrengungen unternommen“ haben müsste, „die einschlägigen Beweismittel vom Beklagten zu beschaffen“ (Artikel 3 Absatz 2 AILD).
Erwägungsgrund 17 AILD hält in diesem Kontext auch fest: „Die Anordnung der Offenlegung sollte zu einer Vermeidung unnötiger Rechtsstreitigkeiten und Kosten, die durch ungerechtfertigte oder wahrscheinlich erfolglose Ansprüche verursacht werden, für die jeweiligen Prozessparteien führen“.
Die Offenlegung soll schließlich durch nationale Gericht angeordnet werden. Dabei wären gemäß Artikel 3 Absatz 4 AILD die Erforderlichkeit und Verhältnismäßigkeit zu beachten, wobei auch zu berücksichtigende Interessen, wie Geschäftsgeheimnisse adressiert werden.
Dabei hätten die Mitgliedstaaten ihren Gerichten Befugnisse für spezifische Maßnahmen zur Beweismittelsicherung zuzugestehen (Artikel 3 Absatz 3 AILD) und Rechtsbehelfe gegen Anordnungen für die Personen vorzusehen, gegen die diese ergehen (Artikel 3 Absatz 4 letzter Satz).
Für den Fall, dass ein entsprechender Beklagter einer solchen gerichtlichen Anordnung zur Offenlegung oder Sicherung nicht nachkommt, würde Artikel 3 Absatz 5 AILD schließlich die Vermutung anordnen, „dass der Beklagte gegen seine einschlägige Sorgfaltspflicht verstößt". Das soll weiters insbesondere dann erfolgen, wenn die entsprechenden Beweismittel Umstände rund um die Verletzung jener AI Act-Anforderungen durch Nutzer und Anbieter von Hochrisiko-KI-Systemen nachweisen sollen, die gemäß Artikel 4 Absatz 2 bzw 3 für die Kausalitätsvermutung nach der AILD relevant sind. Siehe zu dieser Vermutung auch schon oben unter Kausaltitätsvermutung (Artikel 4).
Produkhaftungsrichtlinie neu
Überblick und Übergangsbestimmungen
Neben dem Vorschlag zur AILD enthielt auch schon der Vorschlag für eine neue Produkthaftungsrichtlinie Aspekte, die für KI (bzw die Haftung in diesem Zusammenhang) relevant sind.[18] Dieser Vorschlag, der auf eine Ersetzung der aus den 1980ern stammenden, alten Produkthaftungsrichtlinie abzielte, wurde prinzipiell als Paket mit dem Vorschlag für die AILD schon im September 2022 von der Kommission vorgelegt.[19]
Im Gegensatz zur AILD wurde die neue Produkthaftungsrichtlinie (PHRL neu) aber mittlerweile bereits im Amtsblatt veröffentlicht und ist am 8. 12. 2024 prinzipiell in Kraft getreten.[20]
Die PHRL neu gilt allerdings erst für Produkte, die nach dem 9. 12. 2026 in Verkehr gebracht oder in Betrieb genommen werden (Artikel 2 Absatz 1 PHRL neu). Die Mitgliedstaaten müssen diese daher bis zum 9. 12. 2026 in nationales Recht umsetzen (Artikel 22 Absatz 1 PHRL). Mit Wirkung vom 9. 12. 2026 wird grundsätzlich auch die alte Produkthaftungsrichtlinie aufgehoben, wobei diese auch weiterhin für Produkte gelten soll, die vor diesem Zeitpunkt in Verkehr gebracht oder in Betrieb genommen wurden (Artikel 21 PHRL neu).
Schon die alte Produkthaftungsrichtlinie[21] regelt prinzipiell eine verschuldensunabhängige Haftung im Zusammenhang mit fehlerhaften Produkten für bestimmte andere Schäden, wobei die Haftung vorrangig den Produkthersteller trifft. Dies ist auch Kern der PHRL neu, sie bringt allerdings auch eine Reihe von Neuerungen mit sich, die insbesondere auch KI betreffen. Neben der Anpassung an Produkte im digitalen Zeitaler sollte mit der PHRL neu im Übrigen insbesondere auch der Kreislaufwirtschaft Rechnung getragen werden.[22]
Awendungsbereich und neuer Produktbegriff
Im Rahmen der alten Rechtslage gab es weitreichende Unklarheiten in Hinblick darauf, inwieweit Software vom Produktbegriff erfasst ist.[5] Daraufhin sollte Software (bzw auch KI) in den Produktbegriff aufgenommen werden.[23] Der neue Produktbegriff soll im Detail jetzt alle beweglichen Sachen umfassen, selbst wenn diese in andere Sachen integriert oder mit diesen verbunden sind, und explizit auch Elektrizität, Rohstoffe, Software und digitale Konstruktionsunterlagen (Artikel 4 Ziffer 1 PHRL neu). Nach Erwägungsgrund 13 PHRL neu sind unter Software auch etwa KI-Systeme zu verstehen.[24] Mit der Einbeziehung von Software wurde wohl auf Technologieneutralität abgezielt.[25]
Trotz der Neufassung des Produktbegriffs ergeben sich allerdings Auslegungsfragen hinsichtlich der Anwendbarkeit der PHRL neu. So soll jetzt prinzipiell auch für Komponenten von Produkten gehaftet werden (vgl Artikel 8 Absatz 1 PHRL neu), worunter körperliche oder nicht-körperliche Gegenstände, Rohstoffe oder verbundene Dienste verstanden werden, die in ein Produkt integriert oder damit verbunden sind (Artikel 4 Ziffer 4 PHRL neu). MIt verbundenen Diensten sind digitale Dienste gemeint, die sich dadurch auszeichnen, dass sie so in ein Produkt integriert oder mit diesem verbunden sind, dass es ohne sie (eine oder mehrere seiner) Funktionen nicht erfüllen könnte. Dies ist vor allem deswegen relevant, weil nach Erwägungsgrund 17 PHRL neu Dienstleistungen per se prinzipiell nicht von der Richtlinie umfasst sein sollten. Daher stellen sich in der Folge voraussichtlich schwierige Abgrenzungsfragen, insbesondere in Hinblick auf die Wichtigkeit für die Funktionsweise des Produkts.[26] Zudem wird in Erwägungsgrund 13 PHRL neu in Bezug auf Software wiederum angemerkt, dass diese „unabhängig von der Art ihrer Bereitstellung oder Nutzung“, demnach „unabhängig davon, ob die Software auf einem Gerät gespeichert oder über ein Kommunikationsnetz oder Cloud-Technologien abgerufen oder durch ein Software-as-a-Service-Modell bereitgestellt wird“ als Produkt umfasst sein soll. Daraus ergeben sich demnach wohl wiederum Abgrenzungsfragen in Hinblick auf Dienstleistungen, die mit einer Software verbunden sind. Außerdem sollen digitale Dateien laut Erwägungsgrund 16 PHRL neu per se keine Produkte darstellen (gewisse digitale Konstruktionsunterlagen, etwa für den 3D-Druck, ausgenommen) und laut Erwägungsgrund 13 PHRL sollen auch Informationen nicht als Produkt zu sehen sein. DIe Produkthaftungsregelungen sollen demnach „nicht für den Inhalt digitaler Dateien wie Mediendateien oder E-Books oder den reinen Quellcode von Software gelten“. In dem Zusammenhang scheint in der Folge aber überlegenswert, inwieweit das auch Komponenten betreffen soll, also inwiefern etwa Sourcecode, oder auch Trainingsdaten für eine KI, eine (fehlerhafte) Komponente eines Softwareprodukts darstellen können (wenn auch wohl kein eigenes Produkt).[27]
Eine wichtige Voraussetzung für die Haftung ist die Fehlerhaftigkeit (eines Produkts bzw einer Komponente), die in Artikel 7 PHRL neu prinzipiell damit umschrieben wird, dass das Produkt "nicht die Sicherheit bietet", die Personen erwarten dürfen oder die von Unions- oder nationalem Recht gefordert wird. Artikel 7 Absatz 2 PHRL neu regelt in der Folge, dass sämtliche Umstände bei dieser Beurteilung Berücksichtigung finden müssen und bietet hierzu einige Beispiele, wie auch etwa die "einschlägigen Anforderungen an die Produktsicherheit, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen" (Buchstabe f). Dazu ist allerdings anzumerken, dass die Fehlerhaftigkeit des Produkts vermutet wird, wenn der Kläger nachweist, dass das Produkt verbindliche Produktsicherheitsanforderungen gemäß Unions- oder nationalem Recht nicht erfüllt, sofern diese den Schutz vor dem Risiko des Schadens, den die geschädigte Person erlitten hat, gewährleisten sollen (Artikel 10 Ansatz 2 Buchstabe b PHRL neu).
Die Frage, wer welche Schäden geltend machen kann, wird insbesondere in den Artikeln 5 und 6 der PHRL neu adressiert. Demnach hat zunächst grundsätzlich „jede natürliche Person, die einen durch ein fehlerhaftes Produkt verursachten Schaden erleidet", Anspruch auf Schadenersatz gemäß der PHRL neu, wobei dieser unter Umständen durch andere Personen geltend gemacht werden kann (vgl Artikel 5 PHRL neu). Dabei werden folgende Schäden ersetzt (Artikel 6 Absatz 1 PHRL neu):
- Tod oder Körperverletzung, einschließlich medizinisch anerkannter Beeinträchtigungen der psychischen Gesundheit
- Beschädigung oder Zerstörung von Sachen, außer:
- das fehlerhafte Produkt selbst
- ein Produkt, das durch eine fehlerhafte Komponente dieses Produkts beschädigt wurde, die vom Hersteller des Produkts oder unter der Kontrolle dieses Herstellers in das Produkt integriert oder mit diesem verbunden wurde
- Sachen, die ausschließlich für berufliche Zwecke verwerdet werden
- Vernichtung oder Beschädigung von Daten, die nicht für berufliche Zwecke verwendet werden
Grundsätzlich sind dabei insbesondere Vermögensschäden abgedeckt (Artikel 6 Absatz 2 erster Satz PHRL neu). In dem Zusammenhäng enthält die PHRL neu im Gegensatz zur alten Richtlinie keinen Selbstbehalt für Sachschäden mehr.[28] Es sollen aber auch entsprechende immaterielle Schäden abgedeckt werden, sofern diese nach nationalem Recht ersetzbar sind (Artikel 6 Absatz 2 zweiter Satz PHRL neu).
Welcher Wirtschaftsakteur in weiterer Folge für entsprechende Schäden haftbar gemacht werden kann, wird im Detail insbesondere in Artikel 8 PHRL neu geregelt. Dies betrifft insbesondere die Hersteller der fehlerhaften Produkte und die Hersteller von fehlerhaften Komponenten, die "unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden" wurden und dessen Fehlerhaftigkeit verursacht haben (Artikel 8 Absatz 1 Buchstaben a und b PHRL neu). Nach Erwägungsgrund 13 PHRL neu soll etwa der Anbieter eines KI-Systems im Sinne des AI Act als Hersteller gelten.
Für KI relevante konkrete Regelungen
Die PHRL enthält auch spezifisch im Zusammenhang mit KI relevante Regelungen (abseits des erweiterten Produktbegriffs). Im Zusammenhang mit KI besonders relevant sind der Begründung des Richtlinienvorschlags und den Erwägungsgründen der PHRL neu folgend insbesondere bestimmte Beweiserleichterungen gemäß Artikel 10 PHRL neu und gewisse Haftungsszenarien, die sich aus Artikel 11 PHRL neu ergeben.[29]
Prinzipiell muss der Kläger die Fehlerhaftigkeit des Produkts, den erlittenen Schaden und den Kausalzusammenhang zwischen Fehlerhaftigkeit und Schaden beweisen (Artikel 10 Absatz 1 PHRL neu). Gemäß Artikel 10 Absatz 4 sind allerdings gewisse Beweiserleichtungen in Hinblick auf komplexe Fälle vorgesehen. Voraussetzung dafür ist einerseits, dass der Kläger insbesondere aufgrund der technischen oder wissenschaftlichen Komplexität übermäßige Schwierigkeiten damit hat, „die Fehlerhaftigkeit des Produkts oder den ursächlichen Zusammenhang zwischen dessen Fehlerhaftigkeit und dem Schaden oder beides zu beweisen" (Artikel 10 ABsatz 4 Buchstabe b PHRL neu). Andererseits muss der Kläger nachgewiesen haben, „dass das Produkt fehlerhaft ist oder dass ein ursächlicher Zusammenhang zwischen der Fehlerhaftigkeit des Produkts und dem Schaden besteht, oder beides". Zudem müssen die Voraussetzungen trotz der Offenlegung von Beweismitteln gemäß Artikel 9 PHRL neu und unter Berücksichtigung aller relevanten Umstände des Falls vorliegen (Artikel 10 Absatz 4 PHRL neu). Erwägungsgrund 48 PHRL neu nennt als Kriterien für die technische oder wissenschaftliche Komplexität beispielsweise auch die Komplexität der verwendeten Technologie (etwa maschinelles Lernen) und die Komplexität des Kausalzusammenhangs, die dabei auch mit der Funktionsweise von KI-Systemen in Verbindung gebracht wird. Die Vermutungen und Annahmen nach Artikel 10 PHRL neu sollen schließlich gemäß dessen Absatz 5 vom Beklagten widerlegbar sein.
Artikel 11 PHRL neu enthält demgegenüber im Allgemeinen Regelungen darüber, wann sich die jeweiligen Wirtschaftsakteure von einer Haftung freibeweisen können. Dies betrifft etwa den Fall dass der Wirtschaftsakteur beweist, "dass es wahrscheinlich ist, dass die Fehlerhaftigkeit, die den Schaden verursacht hat, zum Zeitpunkt des Inverkehrbringens, der Inbetriebnahme oder — bei einem Lieferanten — des Bereitstellens auf dem Markt noch nicht bestanden hat oder dass diese Fehlerhaftigkeit erst nach dem betreffenden Zeitpunkt entstanden ist" (Artikel 11 Absatz 1 Buchstabe c PHRL neu). In Bezug darauf enthält Artikel 11 Absatz 2 PHRL neu allerdings Ausnahmen, im Rahmen derer entsprechende Wirtschaftsakteure dennoch haftbar bleiben. Dabei geht es darum, dass die jeweilige Fehlerhaftigkeit des Produkts einen der Gründe hat, die in der Bestimmung genannt werden, sofern diese zudem der Kontrolle des Herstellers unterliegen. Dies umfasst unter anderem verbundene Dienste und Software (einschließlich Software-Updates oder -Upgrades) sowie wesentliche Änderungen des Produkts, die wiedeurm im Detail in Artikel 4 Z 18 PHRL neu definiert werden. Die Erwägungsgründe verweisen in diesem Zusammenhang wiederum beispielhaft auf maschinelles Lernen bzw. fortlaufend lernende KI-Systeme.[30]
Sonstiges
Artikel 9 PHRL neu sieht Offenlegungspflichten für bestimmte Beweismittel vor.
Gemäß Artikel 12 Asabtz 1 PHRL neu sollen im Falle mehrerer für den selben Schaden haftbarer Wirtschaftsakteure diese solidarisch haftbar gemacht werden.
Die Haftung nach der PHRL neu soll gemäß deren Artikel 15 grundsätzlich nicht vertraglich oder durch nationales Recht ausgeschlossen oder beschränkt werden können. Gemäß Artikel 12 Absatz 2 PHRL neu kann aber der Haftungsrückgriff von Produktherstellern auf bestimmte kleine Unternehmen, die eine in das Produkt integrierte Softwarekomponente hergestellt haben, welche wiederum fehlerhaft war und einen Schaden verursacht hat, vertraglich ausgeschlossen werden.
Synergien
Der ursprüngliche Vorschlag zur AILD und die neue Produkthaftungsrichtlinie zielen prinzipiell auf verschiedene Anwendungsfälle bzw Haftungsszenarien ab, ergänzen sich dabei jedoch dementsprechend.[31] Zudem waren diese Vorschläge als Paket mit jenem für den AI Act zu sehen.[32]
Insbesondere durch die Heranziehung der Begrifflichkeiten aus dem AI Act(-Vorschlag), aber auch durch die Heranziehung entsprechender Sorgfaltspflichten als Voraussetzung für die Kausalitätsvermutung (Artikel 4 AILD) würden sich bei der AILD gegebenenfalls auch entsprechende Synergien mit dem AI Act ergeben.
Umgekehrt können aus der Interpretation gewisser Pflichten nach dem AI Act(-Vorschlag) durch den Vorschlag für die AILD auch gewisse Ansatzpunkte für die Auslegung des AI Acts gewonnen werden. Denn nach dem AILD-Vorschlag sollten, um die Kausalitätsvermutung gemäß Artikel 4 auszulösen (neben anderen Voraussetzungen), nur Verstöße gegen solche Sorgfaltspflichten einschlägig sein, „deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern“.[33] Zumindest in Hinblick auf Anbieter von Hochrisiko-KI-Systemen sollten in dem Zusammenhang wiederum nur bestimmte, taxativ aufgezählte Pflichten nach dem AI Act einschlägig sein.[34] In diesem Zusammenhang nennt Erwägungsgrund 22 auch explizit Erfordernisse, die nicht auf einen entsprechenden Schutz vor Schäden abzielen sollen (was wohl auch den AI Act betrifft), indem dieser festhält: „Verstöße gegen Sorgfaltspflichten, deren unmittelbarer Zweck nicht darin besteht, den eingetretenen Schaden zu verhindern, führen nicht zur Geltung der Vermutung; wenn beispielsweise ein Anbieter die erforderlichen Unterlagen nicht bei den zuständigen Behörden einreicht, würde dies bei Schadensersatzansprüchen aufgrund von Personenschäden nicht zur Geltung der Vermutung führen“. Demnach scheint die EU-Kommission im AILD-Vorschlag (zumindest in manchen Bereichen) nur manche AI Act-(Vorschlag)-Pflichten als „Sorgfaltspflicht, deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern“ zu interpretieren. Das könnte wiederum Auswirkungen auf die Auslegung von AI Act-Regelungen als Schutzgesetze im Sinne des § 1311 ABGB, und damit dem Schadenersatz bei Verletzung des AI Acts, haben.
Nach dem Vorschlag soll die AILD außerdem quasi bestehende zivilrechtliche Haftungsregime bzw entsprechende nationale und unionrechtliche Regelungen ergänzen.[35] Die AILD wäre demnach gegebenenfalls gemeinsam mit diesen zu sehen.
Im Rahmen der neuen Produkthaftungsrichtlinie wurde explizit auf den AI Act Bezug genommen, indem in den Erwägungsgründen festgehalten wurde, dass "Entwickler oder Hersteller von Software, einschließlich der Anbieter von KI-Systemen im Sinne [...]" des AI Acts als Hersteller erachtet werden sollten. Darüber hinaus ist davon auszugehen, dass auch die Bezugnahmen auf KI-Systeme in den Erwägungsgründen vermutlich (insbesondere) im Sinne des AI Acts zu verstehen sind (siehe auch unter Anwendungsbereich und neuer Produktbegriff).
Zudem kann es sich beim AI Act wohl auch um Produktsicherheitsanforderungen im Sinne des Artikel 7 Absatz 2 Buchstabe f bzw Artikel 10 Absatz 2 Buchstabe b PHRL neu handeln, die wiederum für die Beurteilung der Fehlerhaftigkeit eines KI-Systems relevant wären (vgl auch [LINK ZU BESPRECHUNG DES BSP BEI AI ACT]).
Fallbeispiele
Beispiel 1: KI-gestütztes Kreditscoring
Sachverhalt | Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären. |
---|---|
Einordnung AI Act | Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Z 5 lit b vor (siehe im Detail Hochrisiko-KI-Systeme im AI Act). |
Einordnung AI Liability Directive | In Hinblick auf die diskriminierende Trainingsdatenbasis wäre gegebenenfalls insbesondere in Hinblick auf den Anbieter des Systems die Kausalitätsvermutung gemäß Art 4 AILD relevant.
Durch eine entsprechende Verletzung von Art 10 AI Act (siehe im Detail Anforderungen an Hochrisiko-KI-Systeme) könnte Art 4 Abs 2 lit a AILD erfüllt werden, indem eine der taxativ aufgezählten Pflichten von Hochrisiko-KI-Anbietern gemäß Art 4 Abs 2 lit a betroffen wäre. Damit wäre bei einem entsprechenden Schadenersatzanspruch gegen den Anbieter unter der Voraussetzung, dass der Kläger ein entsprechendes Verschulden des Anbieters nachweist, sowie, dass das Ergebnis des Kredit-Scorings zu seinem Schaden geführt hat, die Kausalitätsvermutung anwendbar, sofern weiters auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden kann, dass das Verschulden das Ergebnis des Kredit-Scorings beeinflusst hat. Jedenfalls nach dem Sachverhalt kann von einer solchen Beeinflussung ausgegangen werden. Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre gegebenenfalls auch die Offenlegungspflicht gemäß Artikel 3 AILD anwendbar. Demnach müssten gegebenenfalls einschlägige Beweismittel, die dem Anbieter des Kredit-Scoring-Systems vorliegen, offengelegt werden, was insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act hinsichtlich der Trainingsdatenbasis relevant sein wird (vgl insbesondere ErwGr 16, 18 und 19; Anforderungen an Hochrisiko-KI-Systeme). Werden die Beweismittel trotz gerichtliche Anordnung nicht offengelegt, kann Sorgfaltspflichtverstoß gemäß Art 3 Abs 5 AILD auch vermutet werden, was wiederum insbesondere Beweismittel betreffen soll, die die Verletzung von Anforderungen durch den KI-Anbieter beweisen sollen (Art 4 Abs 2 AILD). Diese Vermutung könnte gemäß Art 4 Abs 1 lit a AILD wiederum insbesondere für die Kausalitätsvermutung relevant sein. |
Einordnung Produkthaftungs-RL | Die Produkthaftungsrichtlinie ist bei reinen Vermögensschäden nicht anwendbar (Art 6 e contrario; ErwGr 23 und 24 PHRL neu). |
Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen
Sachverhalt | Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.[36] |
---|---|
Einordnung AI Act | Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Art 5 AI Act, noch ein Hochrisiko-KI-System gemäß Art 6 AI Act vorliegen.
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Art 50 Abs 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail Transparenzpflichten). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen. |
Einordnung AI Liability Directive | Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die Kausalitätsvermutung nach der AILD relevant.
Hierbei wäre aber wohl vor allem zu überlegen, inwieweit in Hinblick auf den fehlerhaften Assistenz-Chatbot ein Verschulden der Bank bzw des KI-Anbieters oder einer Person vorliegt, für deren Verhalten diese jeweils verantwortlich wären. Dieses müsste im Verstoß gegen eine national- oder unionsrechtlich festgelegte Sorrgfaltspflicht liegen, deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern,[37] und in der Folge nachgewiesen werden, wie auch die Kausalität der Übernahme der falschen Überweisungssumme für den geltend gemachten Schaden (Art 4 Abs 1 lit a und c AILD). Der Schaden könnte im Beispiel zumindest etwa in den Kosten dafür bestehen, die fehlerhafte Überweisung rückgängig zu machen. Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das Verschulden den beschriebenen Fehler des Chatbots beeinflusst hat. Da kein Hochrisiko-KI-System vorliegt, wäre die Offenlegungspflicht gemäß Art 3 AILD allerdings nicht anwendbar. Somit könnten auf dieser Basis auch nicht die Vorlage entsprechender Beweismittel geltend gemacht werden, was die beschriebenen Nachweise wohl erschweren würde. |
Einordnung Produkthaftungs-RL | Die Produkthaftungsrichtlinie ist bei reinen Vermögensschäden nicht anwendbar (Art 6 e contrario; ErwGr 23 und 24 PHRL neu). |
Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer
Sachverhalt | Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht. Variante: Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „Löschung“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert. |
---|---|
Einordnung AI Act | Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Artikel 5 AI Act, noch ein Hochrisiko-KI-System gemäß Artikel 6 AI Act vorliegen. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act einschlägig sein (siehe im Detail [LINK ZU BESPRECHUNG DES BSP BEI AI ACT]). |
Einordnung AI Liability Directive | Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die Kausalitätsvermutung nach der AILD relevant. Wie in Beispiel 2 wäre allerdings der Nachweis eines Verschuldens (wohl insbesondere des Anbieters und von Personen, für deren Verhalten dieser verantwortlich ist) und der Kausalität der Aktionen des Assistenzsystems für den Schaden fraglich. Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass ein etwaiges Verschulden die beschriebene Aktion des Assistenzsystems beeinflusst hat.
Die geforderten Nachweise sind wiederum auch deswegen fraglich, weil diesfalls die Offenlegungspflicht gemäß Artikel 3 AILD nicht anwendbar wäre, weil grundsätzlich kein Hochrisiko-KI-System vorliegt. |
Einordnung Produkthaftungs-RL | Die Produkthaftungsrichtlinie ist zwar bei reinen Vermögensschäden nicht anwendbar (Artikel 6 e contrario; Erwägungsgründe 23 und 24 PHRL neu), allerdings sehr wohl auf Vermögensschäden, die sich aus der Vernichtung oder Beschädigung von Daten ergeben, welche nicht für berufliche Zwecke verwendet werden (Artikel 6 Absatz 2 in Verbindung mit Absatz 1 Buchstabe c PHRL neu). Dies würde nach dem Sachverhalt grundsätzlich zutreffen, jedenfalls sofern sich aus der Löschung der Dokumente ein finanzieller Schaden ergibt. Dieser wäre dann prinzipiell ersatzfähig.
Weiters wären aber auch entsprechende immaterielle Schäden erfasst, soweit diese nach dem nationalen Recht ersatzfähig sind, was sich nach Erwägungsgrund 23 PHRL neu insbesondere auf Schmerzen und Leid beziehen soll. Diesbezüglich ist demnach auch noch die konkrete nationale Umsetzung abzuwarten. Da es sich bei dem Assistenzsystem um eine Software und damit ein Produkt im Sinne des Artikel 4 Ziffer 1 PHRL neu handelt, wäre weiters zu überlegen, inwieweit eine Fehlerhaftigkeit des Assistenzsystems die jeweiligen Schäden verursacht hat. Bei der Beurteilung der Fehlerhaftigkeit sind gemäß Artikel 7 Absatz 2 PHRL neu grundsätzlich alle Umstände einzubeziehen, was insbesondere auch einschlägige Produktsicherheitsanforderungen, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen, betrifft (Buchstabe f). Deneben sind auch andere mögliche Parameter in Artikel 7 Absatz 2 PHRL neu genannt. Sofern der Kläger den Nachweis erbringen würde, dass das System verbindliche Produktsicherheitsanforderungen verletzt, die vor dem Risiko des erlittenen Schadens schützen sollen, wäre die Fehlerhaftigkeit gemäß Artikel 10 Absatz 2 Buchstabe b sogar zu vermuten. Da die Cybersicherheitsanforderungen des gemäß Artikel 15 AI Act nur auf Hochrisiko-KI-Systeme anwendbar sind (siehe [LINK AUF ENTSPRECHENDE AUSFÜHRUGNEN ZU AI ACT PFLICHTEN]), müsste die Fehlerhaftigkeit diesfalls anhand anderer Parameter bzw Überlegungen hinsichtlich der Sicherheit, die eine Person erwarten darf oder die rechtlich vorgeschrieben ist, festgestellt werden. Bei der Variante hingegen liegt nach dem Sachverhalt insbesondere der Schluss nahe, dass die Infromationspflichten gemäß Artikel 50 Absatz 1 AI Act nicht eingehalten wurden. Sofern man davon ausgeht, dass es es sich dabei um verbindliche Produktsicherheitsanforderungen handelt, die vor dem Risiko des jeweiligen Schadens schützen sollen, und die Nutzerin eine entsprechende Verletzung nachweist, wäre die Fehlerhaftigkeit des Assistenzsystems als Produkt zu vermuten. Da bei dem Assistenzsystem prinzipiell ein Produkt vorliegt, könnte gegebenenfalls insbesondere der Hersteller für deren Fehlerhaftigkeit haftbar gemacht werden (Artikel 8 Absatz 1 Buchstabe a PHRL neu; vgl auch Erwägungsgrund 36 PHRL neu). Dies kann nach Erwägungsgrund 13 PHRL neu insbesondere der Anbieter eines KI-Systems sein. Zudem könnte unter Umständen auch der Hersteller des Betriebssystems haftbar gemacht werden, soweit es sich nicht ohnehin um den selben Hersteller handelt und sofern das Assistenzsystems als Komponente unter der Kontrolle des Herstellers in das Betriebssystem integriert wurde und damit dessen Fehlerhaftigkeit verursacht hat. Nach dem Sachverhalt wäre das grundsätzlich gegeben, insbesondere da es sich bei dem Assistenzsystem auch um eine Komponente gemäß Artikel 4 Ziffer 4, im Sinne eines nicht-körperlichen Gegenstands handelt, der in das Betriebssystem als Produkt integriert ist (vgl Erwägungsgründe 13 und 36 PHRL neu). Weiters könnte aber unter sinngemäßen Umständen auch der Hersteller des Computers haftbar gemacht werden, weil das Betriebssystem schließlich auch eine Komponente des Computers darstellt. Je nach den Umständen des Falles kommen auch noch andere Wirtschaftsakteure für eine Haftung in Frage. Mehrere haftbare Wirtschaftsakteure sollen nach Artikel 12 Absatz 1 PHRL neu prinzipiell solidarisch haften (vgl allerdings Absatz 2 zum möglichen Ausschluss des Regresses). Die Tatsache, dass (auch) die Handlung eines Angreifers zu entspechenden Schäden geführt hat, darf die Haftung der jeweiligen Wirtschaftsakteure jedenfalls auch nicht mindern oder ausschließen (vgl Artikel 13 Absatz 1, Erwägungsgsrund 55 PHRL neu). |
Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung
Sachverhalt | Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfabe, weshalb das System Hautkrebs bei Personen mit dünklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt. Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet. |
---|---|
Einordnung AI Act | Da das KI-System ein entsprechendes Medizinprodukt darstellt, handelt es sich um ein Hochrisiko-KI-System im Sinne des Artikel 6 Absatz 1 AI Act.
Auf Seiten des Anbieters wurden inbsesondere die Anforderungen an Trainingsdaten gemäß Artikel 10 AI Act verletzt. Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (siehe im Detail jeweils [LINK ZU BESPRECHUNG DES BSP BEI AI ACT]). |
Einordnung AI Liability Directive | Nachdem ein Hochrisiko-KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die Kausalitätsvermutung nach der AILD relevant. Hierbei wäre aber wohl vor allem zu überlegen, inwieweit in Hinblick auf die fehlerhaften Ergebnisse der KI
ein Verschulden des KI-Anbieters oder einer Person vorliegt, für deren Verhalten dieser verantwortlich wäre. Dies müsste in der Folge nachgewiesen werden. Dieses Verschulden könnte bei Anbietern von Hochrisiko-KI wiederum nur in der Verletzung bestimmter Anforderungen des AI Acts liegen. Darunter würde gemäß Artikel 4 Absatz 2 Buchstabe a AILD aber prinzipiell auch das Training mit Daten fallen, die nicht den Qualitätskritierien des Artikel 10 AI Act entsprechen. Weiters müsste auch die Kausalität der fehlerhaften Diagnose bzw Therapieempfehlungen für den geltend gemachten Schaden nachgewiesen werden (Artikel 4 Absatz 1 Buchstabe c AILD). Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das Verschulden den beschriebenen Fehler des Chatbots beeinflusst hat. Davon wäre beim Vorliegen eines Verschuldens auf der Seite des KI-Anbieters im soeben beschriebenen Sinn aber wohl auszugehen. Im Übrigen hätte das im Sachverhalt beschriebene, potenzielle Fehlverhalten der Ärztin die fehlerhaften Ausgaben des KI-Systems wohl nicht beeinflusst, weil es ja erst im Nachhinein erfolgt wäre. Dies wäre wiederum bei entsprechenden Schadenersatzforderungen gegen die Klinik als Nutzer (Betreiber) des KI-Systems in Hinblick auf die Kausalitätsvermutung gemäß AILD relevant. Insbesondere ein Verstoß gegen die Pflicht zur Verwendung des KI-Systems nach seiner Gebrauchsanweisung (als Verstoß gegen einschlägige Sorgfaltspflichten des Nutzers/Betreibers der KI) könnte aber wiederum durchaus einschlägig sein. Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre gegebenenfalls auch die Offenlegungspflicht gemäß Artikel 3 AILD anwendbar. Demnach müssten gegebenenfalls einschlägige Beweismittel, die dem Anbieter des Systems vorliegen, offengelegt werden, was insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act hinsichtlich der Trainingsdatenbasis relevant sein wird (vgl insbesondere Erwägungsgründe 16, 18 und 19; [LINK AUF ENTSPRECHENDE AUSFÜHRUGNEN ZU AI ACT PFLICHTEN]). Würden die Beweismittel trotz gerichtlicher Anordnung nicht offengelegt, könnte ein Sorgfaltspflichtverstoß gemäß Artikel 3 Absatz 5 AILD auch vermutet werden, was wiederum insbesondere Beweismittel betreffen soll, die die Verletzung von Anforderungen durch den KI-Anbieter beweisen sollen (Artikel 4 Absatz 2 AILD). Diese Vermutung könnte gemäß Artikel 4 Absatz 1 Buchstabe a AILD wiederum insbesondere für die Kausalitätsvermutung relevant sein. |
Einordnung Produkthaftungs-RL | Da es sich bei dem System um eine Software und damit ein Produkt im Sinne des Artikel 4 Ziffer 1 PHRL neu handelt, wäre die PHRL neu grundsätzlich anwendbar.
Weiters liegt ein ersatzfähiger Schaden in Form der Körperverletzung vor (Artikel Absatz 1 Buchstabe a PHRL neu). Nachdem durch die Verletzung der Qualitätsanforderungen an die Trainingsdaten der KI nach Artikel 10 AI Act verbindliche Produktsicherheitsanforderungen verletzt wurden, die wohl durchaus vor dem Risiko des erlittenen Schadens schützen sollen, wäre die Fehlerhaftigkeit der KI als Produkt gemäß Artikel 10 Absatz 2 Buchstabe b zu vermuten, sofern der Verstoß durch den Kläger nachgewiesen wird. Diesfalls wäre insbesondere als Hersteller insbesondere der Anbieter des KI-Systems haftbar. Je nach den Umständen des Falles kommen aber auch andere Wirtschaftsakteure für eine Haftung in Frage. |
Weiterführende Literatur
Versionen der Produkthaftungsrichtlinie
- Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final
- Provisional Agreement Resulting From Interinstitutional Negotiations - Proposal for a directive of the European Parliament and of the Council on Liability for defective products (COM(2022)0495 – C9 0322/2022 – 2022/0302(COD))
- Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024
Fachliteratur und Ähnliches
- Borges, Liability for AI Systems Under Current and Future Law - An overview of the key changes envisioned by the proposal of an EU-directive on liability for AI, Computer Law Review International 1/2023
- European Data Protection Supervisor, Opion 42/2023 on the Porporsals for two Directives on AI liability rules, 11. 10. 2023
- European Parliamentary Research Service, Artificial intelligence liability directive, PE 739.342, February 2023
- Dötsch, Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023)
- Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107
- Joggerst/Wendt, Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13
- Larcher, Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130
Judikatur
- OGH 3. 8. 2021, 8 ObA 109/20t
Newsbeiträge und Ähnliches
- Imco, New Product Liability Directive, https://www.europarl.europa.eu/committees/en/new-product-liability-directive/product-details/20230417CDT11482(abgerufen am 21. 1. 2025)
- Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024)
- Tom Whittaker, EU AI Liability Directive: An Update, in: Burges Salmon blog, https://blog.burges-salmon.com/post/102jfdv/eu-ai-liability-directive-an-update(abgerufen am 26. 11. 2024)
Einzelnachweise
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2, 3 und 13; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und folgende.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 14; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 3, 12 und 13.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 1, 2, Erwägungsgründe 22 und 28, Artikel 3(5).
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 5 und folgende.
- ↑ 5,0 5,1 Vgl etwa Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seite 1; European Parliamentary Research Service, Artificial intelligence liability directive, PE 739.342, February 2023; für Österreich etwa: Larcher, Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130 (Seiten 133, 134); für Deutschland etwa: Dötsch, Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023), insbesondere Seiten 276 und folgende; Joggerst/Wendt, Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6.
- ↑ Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final.
- ↑ Vgl Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024); Tom Whittaker, EU AI Liability Directive: An Update, in: Burges Salmon blog, https://blog.burges-salmon.com/post/102jfdv/eu-ai-liability-directive-an-update(abgerufen am 26. 11. 2024).
- ↑ European Parliamentary Research Service, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment (2024); siehe auch Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive(abgerufen am 26. 11. 2024).
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere die Erläuterungen in der Begründung.
- ↑ Vgl insbesondere Erwägungsgründe 26 bis 28.
- ↑ Im Allgemeinen ist anzumerken, dass bei den Begrifflichkeiten der AILD wie auch der neuen Produkthaftungsrichtlinie im Normtext keine gendergerechte Sprache verwendet wird. Daher kann, soweit auf diese Begrifflichkeiten Bezug genommen wird, auch hier keine gendergerechte Sprache verwendet werden. Abgesehen davon wird dies jedenfalls entsprechend berücksichtigt.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13; Artikel 1.
- ↑ Siehe insbesondere Artikel 1(3)(d), Erwägungsgründe 10 und 22; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.
- ↑ Hervorhebungen hinzugefügt. Zur Unterscheidung von (objektivem) Sorgfaltsmaßstab und (subjektivem) Verschulden vgl national etwa: OGH 3. 8. 2021, 8 ObA 109/20t mwN.
- ↑ Siehe Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 5 und 8; vgl auch Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 3.
- ↑ Siehe Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024 (insbesondere Artikel 23).
- ↑ Richtlinie 85/374/EWG des Rates vom 25. Juli 1985 zur Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Haftung für fehlerhafte Produkte, ABl L 1985/210, 29.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 2, 6, und 11.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 6, 9, 11, 12 und 14.
- ↑ In Erwägungsgrund 13 wird zudem auf die Anbieter von KI-Systemen gemäß AI Act Bezug genommen, weshalb davon dass mit "KI-System" wohl jene im Sinne des AI Act (Artikel 4 Ziffer 1) gemeint sind.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 14.
- ↑ Vgl zum Entwurfsstadium Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196 f).
- ↑ Dabei wäre wohl die Frage zentral, inwieweit ein quasi funktional essentieller nicht-körperlicher Gegenstand vorliegt, wobei Erwägungsgrund 20 PHRL neu implizit etwa Daten, wie ursprünglich auf einer Festplatte gespeicherte, digitale Dateien, als nicht-körperliche Vermögensgegenstände sieht; vgl zum Entwurfsstadium erneut auch Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196 f).
- ↑ Vgl zum Entwurfsstadium Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (197).
- ↑ Vgl Erwägungsgründe 40, 48 und 50 PHRL neu; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6.
- ↑ Vgl insbesondere Erwägungsgründe 40 und 48 PHRL neu.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seite 5; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 3.
- ↑ Vgl darüber hinaus Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2 und 3.
- ↑ Vgl Erwägungsgrund 22 und Artikel 4(1)(a).
- ↑ Vgl Erwägungsgrund 26 und Artikel 4(2).
- ↑ Siehe Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13; siehe zudem unter Überblick und Anwendungsbereich.
- ↑ Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.
- ↑ Im Detail versteht Artikel 2 Ziffer 9 AILD darunter "einen im nationalen Recht oder im Unionsrecht festgelegten Verhaltensmaßstab, der einzuhalten ist, um eine Beeinträchtigung von im nationalen Recht oder im Unionsrecht anerkannten Rechtsgütern, einschließlich Leben, körperlicher Unversehrtheit, Eigentum und Wahrung der Grundrechte, zu vermeiden".