KI-Haftungsregelungen

Aus RI Wiki
Zur Navigation springenZur Suche springen
Flagge der Europäischen Union

Richtlinie (EU) 2025/

Titel: Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz
Kurztitel: AI Liability Directive/Richtlinie über KI-Haftung
Bezeichnung:
(nicht amtlich)
AILD
Geltungsbereich: EWR
Rechtsmaterie: Binnenmarkt, Cybersicherheit
Grundlage: AEUV, insbesondere Art. 114
Anzuwenden ab: Vorschlagsstadium
Fundstelle: Noch nicht im ABl veröffentlicht
Volltext Konsolidierte Fassung (nicht amtlich)
Grundfassung
Regelung ist ein aktueller Vorschlag im Rechtsetzungsprozess.
Hinweis zur geltenden Fassung von Rechtsakten der Europäischen Union
Flagge der Europäischen Union

Richtlinie (EU) 2024/2853

Titel: Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates
Kurztitel: Product Liability Directive/Produkthaftungsrichtlinie (neu)
Bezeichnung:
(nicht amtlich)
PLD/PHRL
Geltungsbereich: EWR
Rechtsmaterie: Binnenmarkt, Cybersicherheit
Grundlage: AEUV, insbesondere Art. 114
Anzuwenden ab: 9. Dezember 2026 (Umsetzung)
Fundstelle: ABl L 2024/2853, 1
Volltext Konsolidierte Fassung (nicht amtlich)
Grundfassung
Regelung muss aktuell in nationales Recht umgesetzt werden.
Hinweis zur geltenden Fassung von Rechtsakten der Europäischen Union

Überblick

Im Bereich der Regulierung künstlicher Intelligenz durch die EU wurden neben dem AI Act von der Kommission auch Vorschläge für spezifische Haftungsregelungen in diesem Zusammenhang vorgelegt. Dies beinhaltete zum einen den Vorschlag für eine neue Produkthaftungsrichtlinie, welcher zwar auch andere Hintergründe hatte, aber durch einige Aspekte insbesondere auch auf künstliche Intelligenz (KI) abzielte, und zum anderen einen Vorschlag für eine eigene AI Liability Directive (AILD).[1]

Während die neue Produkthaftungsrichtlinie wiederum im Wesentlichen auf harmonisierte Regelungen für eine verschuldensunabhängige[2] (zivilrechtliche) Haftung abzielen sollte, adressierte der Vorschlag für die AILD insbesondere Beweiserleichterungen im Rahmen der (prinzipiell weiterhin) aus nationalen bzw sonstigen unionsrechtlichen Regelungen ableitbaren außervertraglichen, verschuldensabhängigen, zivilrechtlichen Haftung.[3]

Durch diese Regelungen der AILD sollte vorrangig (Beweis-)Problematiken entgegengetreten werden, die mit gewissen Eigenschaften von KI in Verbindung gebracht wurden, wie deren Komplexität und Undurchsichtigkeit (die wiederum insgesamt als Blackbox-Effekt bezeichnet werden). Angesprochen wurden dabei insbesondere Nachweise für die Aspekte Kausalität und in gewisser Hinsicht auch Verschulden.[4] Den Erläuterungen in der Begründung des Vorschlags zufolge wurden in dem Zusammenhang verschiedene Optionen abgewogen und insbesondere die Statuierung einer eigenen (verschuldensunabhängigen) Haftung für KI vorerst verworfen, was allerdings demnach nach einer gewissen Zeit noch einmal evaluiert werden sollte (siehe im Detail Artikel 5 Vorschlag AILD).[5]

Im Rahmen der neuen Produkthaftungsrichtlinie sollte nach umfassenden Unklarheiten und potenziellen Regelungslücken[6] in diesem Zusammenhang nunmehr Software (und damit auch KI) explizit in den Produktbegriff aufgenommen werden. Darüber hinaus zielen auch gewisse Aspekte der neuen Produkthaftungsregelungen mehr oder weniger spezifisch auf KI bzw deren Besonderheiten ab.[7]

Beide Vorschläge zielten auf Richtlinien ab, was insbesondere bedeutet, dass diese prinzipiell zunächst durch die Mitgliedstaaten in nationales Recht umgesetzt werden müssten, um Geltung zu erlangen. Allerdings sind die jeweiligen Gesetzgebungsverfahren sehr unterschiedlich verlaufen. Die neue Produkthaftungsrichtlinie ist mittlerweile im Amtsblatt der EU veröffentlicht worden[8] und prinzipiell in Kraft getreten, während das Gesetzgebungsverfahren für die AILD offenbar aufgeschoben wurde und zwischenzeitlich diverse Änderungen des Vorschlags diskutiert wurden. Stand Mitte Februar 2025 hat die Kommission den Vorschlag für die AILD offenbar verworfen. Siehe im Detail jeweils unter Vorschlag für AI Liability Directive bzw Produkthaftungsrichtlinie neu.


Vorschlag für AI Liability Directive

Allgemeines und Anwendungsbereich

Der Vorschlag für eine AI Liability Directive (im Folgenden insbesondere: Vorschlag AILD) wurde 2022 von der Kommission vorgelegt.[9] In der Folge wurde berichtet, dass der Gesetzgebungsprozess zwischenzeitlich aufgeschoben wurde, insbesondere um zunächst die gesetzgeberische Fertigstellung des AI Acts abzuwarten und dass von der Kommission nicht öffentlich ein überarbeiteter Vorschlag ausgesendet wurde, der insbesondere an den inzwischen veröffentlichten AI Act, aber zumindest mitunter auch in Bezug auf seine konkreten Regelungen, angepasst worden sein soll.[10] Im September 2024 wurde zudem eine Studie des European Parliamentary Research Service (EPRS) publiziert, im Rahmen welcher insbesondere eine gemischte (verschuldensab- und unabhängige) Haftung diskutiert wird sowie die Ausweitung des Anwendungsbereichs der Richtlinie (etwa auf Software generell) vorgeschlagen wird.[11]

Im Februar 2025 wurde schließlich bekannt, dass die Kommission den Vorschlag für die AILD im Rahmen des Arbeitsprogramms zurückgezogen hat, da keine Einigung zu erwarten wäre.[12]

Demnach wird im Folgenden nur auf den ursprünglichen Vorschlag der Kommission detaillierter eingegangen, der demnach jedoch erst wieder aufgegriffen werden müsste, um entsprechende Relevanz zu erfahren.

Dieser enthielt im Wesentlichen zwei Elemente, die als Beweiserleichterungen bei der Geltendmachung von Schadenersatz im Zusammenhang mit KI dienen sollen: zum einen eine Offenlegungspflicht für bestimmte KI-Systeme und zum anderen eine Kausalitätsvermutung im Zusammenhang mit KI-Systemen im Allgemeinen.[13] Bereits der ursprüngliche Richtlinienvorschlag hat Begrifflichkeiten bzw Systematik (etwa hinsichtlich KI-Systemen und gewissen, mit diesen in Verbindung stehenden Akteuren) aus dem damals vorliegenden AI Act-Vorschlag übernommen, die jedoch teilweise nicht mehr jenen der veröffentlichten Version des AI Act entsprechen.[14] Dies betrifft etwa Nutzer von KI-Systemen, die in der 2024 im Amtsblatt veröffentlichten Fassung des AI Act nunmehr grundsätzlich dem Betreiber gemäß Artikel 3 Ziffer 4 AI Act entsprechen würden.

Dabei ist anzumerken, dass der AI Act (in der im Amtsblatt veröffentlichten Fassung) zwar eine allgemeine Definition von KI-Systemen enthält, in der Folge jedoch insbesondere Regelungen für bestimmte Risikoklassen solcher Systeme (ansonsten auch etwa für bestimmte KI-Modelle, siehe im Detail Artificial Intelligence Act (AIA)). Im Rahmen des AI Act beziehen sich insbesondere die KI-Kompetenz gemäß Artikel 4 AI Act und die Regelungen über KI-Reallabore auf KI-Systeme im Allgemeinen und nicht auf eine bestimmte Risikoklasse. KI-Systeme, die nicht den ansonsten im AI Act adressierten Risikoklassen zuzuordnen bzw von entsprechenden (AI Act-)Regelungen erfasst sind, wären demnach jedoch zum Teil auch im Rahmen des Vorschlags zur AILD relevant gewesen. In dem Zusammenhang verweisen die Erwägungsgründe des Vorschlags zur AILD quasi darauf, dass auch bei nicht-Hochrisiko-Systemen bestimmte KI-Merkmale, wie Autonomie und Undurchsichtigkeit, zu Beweisschwierigkeiten führen könnten.[15]

Mit dem Richtlinienvorschlag sollte ein Mindestharmonisierungsansatz verfolgt werden, wodurch „es Klägern im Fall eines durch KI-Systeme verursachten Schadens“ ermöglicht werden sollte „sich auf günstigere Vorschriften des nationalen Rechts zu berufen“ (Erwägungsgrund 14).[16] Weiters sollte die vorgeschlagene Richtlinie quasi nur bestimmte ergänzende Regelungen für die zivilrechtliche (nicht strafrechtliche), verschuldensabhängige, außervertragliche Haftung für durch KI-Systeme verursachten Schäden in Bezug auf die bestehenden Haftungssysteme einführen.[17] Nach Erwägungsgrund 24 Vorschlag AILD sind dabei "[i]n Bereichen, die nicht durch das Unionsrecht harmonisiert sind, [...] weiterhin nationale Rechtsvorschriften [...]" einschlägig.

In Bezug auf entsprechende Verschuldenshaftungen hält Erwägungsgrund 3 im Allgemeinen auch Folgendes fest, was gewissermaßen als Ausgangsbasis für die Regelungen des Vorschlags zur AILD zu sehen ist:

Wenn ein Geschädigter für einen entstandenen Schaden Schadensersatz verlangt, so muss er nach den allgemeinen Vorschriften der Mitgliedstaaten für die verschuldensabhängige Haftung in der Regel eine fahrlässige oder vorsätzliche schädigende Handlung oder Unterlassung („Verschulden“) der Person, die potenziell für diesen Schaden haftbar ist, sowie einen ursächlichen Zusammenhang zwischen diesem Verschulden und dem betreffenden Schaden nachweisen.“ (Hervorhebungen hinzugefügt)

Der eingeschränkte Anwendungsbereich wurde konkret insbesondere durch Artikel 1 sowie die Definition von Schadenersatzansprüchen, auf die sich die Richtlinie beziehen sollte (Artikel 2 Ziffer 5 Vorschlag AILD), umgesetzt. Diese Definition umfasste demnach: „einen außervertraglichen verschuldensabhängigen zivilrechtlichen Anspruch auf Ersatz des Schadens, der durch ein Ergebnis eines KI-Systems oder aber dadurch, dass dieses System das von ihm erwartete Ergebnis nicht hervorgebracht hat, verursacht wurde“.

Auch Beklagte und Kläger bzw potenzielle Kläger wurden im Richtlinienvorschlag entsprechend definiert (Artikel 2 Ziffern 6 bis 8 Vorschlag AILD). Beklagte sollten demnach Personen sein, „gegen die ein Schadensersatzanspruch geltend gemacht wird“ (Artikel 2 Ziffer 8 Vorschlag AILD). Die Definition von Kernbegriffen, wie Verschulden, bzw die Regelung von allgemeinen Aspekten der Haftung sollte dabei aber prinzipiell (anderen) Vorschriften des Unions- bzw nationalen Rechts überlassen werden.[18]

Kausalitätsvermutung (Artikel 4)

Artikel 4 sollte als einen zentralen Aspekt der Richtlinie eine widerlegbare Kausalitätsvermutung regeln. Unter gewissen Voraussetzungen sollte dadurch zwecks der Anwendung von Haftungsvorschriften in Bezug auf erfasste Schadenersatzansprüche ein Kausalzusammenhang „zwischen dem Verschulden des Beklagten und dem vom KI-System hervorgebrachten Ergebnis oder aber der Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat“ vermutet werden (Artikel 4 Absatz 1 Vorschlag AILD).

Die wesentlichen Voraussetzungen sollten dabei prinzipiell sein, dass der Kläger nachweist, "dass ein Verschulden seitens des Beklagten oder einer Person, für deren Verhalten der Beklagte verantwortlich ist, vorliegt, da gegen [...]" gewisse einschlägige Sorgfaltspflichten verstoßen wurde (Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD), sowie dass das Ergebnis oder Nicht-Ergebnis des KI-Systems zu dem entsprechenden Schaden geführt hat (Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Unter "Sorgfaltspflicht" verstand Artikel 2 Ziffer 9 Vorschlag AILD zunächst prinzipiell "einen im nationalen Recht oder im Unionsrecht festgelegten Verhaltensmaßstab, der einzuhalten ist, um eine Beeinträchtigung von im nationalen Recht oder im Unionsrecht anerkannten Rechtsgütern, einschließlich Leben, körperlicher Unversehrtheit, Eigentum und Wahrung der Grundrechte, zu vermeiden". Siehe zu entsprechenden Einschränkungen sogleich.

Im Kontext von Hochrisiko-KI sollte bei einem Verstoß gegen eine Anordnung zur Offenlegung oder Sicherung von entsprechenden Beweismitteln gemäß Artikel 3 Absatz 5 Vorschlag AILD ein Sorgfaltspflichtverstoß auch vermutet werden können (siehe Offenlegungspflicht (Artikel 3)), was wiederum auch für die Kausalitätsvermutung einschlägig gewesen wäre (siehe Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD). Dabei ist allerdings nicht ganz klar, ob nur der (objektive) Pflichtenverstoß oder auch ein (subjektives) Verschulden vermutet werden sollte, weil sich Artikel 3 Absatz 5 (nur) auf einen Verstoß gegen einschlägige Sorgfaltspflichten bezieht, während Artikel 4 Absatz 1 Buchstabe a davon gesprochen hat, dass "gemäß Artikel 3 Absatz 5" vermutet werden soll, "dass ein Verschulden [...] vorliegt".[19]

Für die Anwendbarkeit der Kausalitätsvermutung musste zudem auf „der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden" können, "dass das Verschulden das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat“ (Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD). Nach Erwägungsgrund 25 Vorschlag AILD sollte dies etwa im Fall gegeben sein, dass das "Verschulden in einer Verletzung einer Sorgfaltspflicht in Bezug auf die Begrenzung des Betriebsbereichs des KI-Systems besteht und der Schaden außerhalb des Betriebsbereichs eingetreten ist". Demgegenüber wäre die Voraussetzung demnach "bei einem Verstoß gegen eine Verpflichtung, bestimmte Dokumente bei einer bestimmten Behörde einzureichen oder sich bei einer bestimmten Behörde zu registrieren, obwohl dies für die betreffende bestimmte Tätigkeit vorgesehen oder sogar ausdrücklich für den Betrieb eines KI-Systems gelten könnte, [...]" nicht erfüllt.

Die wesentliche Konsequenz der Kausalitätsvermutung wäre demnach eine gewisse gedankliche Verlagerung des (Nicht-)Resultats einer KI hin zu einer entsprechenden Handlung oder Unterlassung einer Person (für die Zwecke der einschlägigen Haftung dieser Person) gewesen.

Für die Anwendung der Vermutung waren allerdings noch weitere Einschränkungen vorgesehen:

  • Hinsichtlich der dabei relevanten Sorgfaltspflichten sollten im Allgemeinen nur solche erfasst sein, deren unmittelbarer Zweck die Verhinderung des eingetretenen Schadens ist.
  • Hinsichtlich Hochrisiko-KI-Systemen, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, sollten jedenfalls bezüglich deren Anbietern und Personen, die Anbieter-Pflichten gem AI Act(-Vorschlag) unterliegen, nur bestimmte Pflichten nach dem AI Act(-Vorschlag) in Frage kommen, wie etwa die Konzeption und Entwicklung gemäß den Transparenzanforderungen des AI Act(-Vorschlags)[20]. Zudem sollten dabei "die im Rahmen des Risikomanagementsystems unternommenen Schritte und dessen Ergebnisse" Berücksichtigung finden (jeweils Artikel 4 Absatz 2 Vorschlag AILD; siehe auch Erwägungsgrund 26 Vorschlag AILD).
  • In Hinblick auf Nutzer von Hochrisiko-KI, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, war prinzipiell eine ähnliche Regelung vorgesehen (Artikel 4 Absatz 3 Vorschlag AILD). Allerdings ging aus dieser nicht so eindeutig hervor, inwieweit die entsprechende Aufzählung von Pflichten nach dem AI Act-Vorschlag, die für die Kausalitätsvermutung einschlägige Sorgfaltspflichten wären, abschließend sein sollte, insbesondere weil dabei kein „nur“ (oder eine ähnliche Klarstellung) verwendet wurde. zieht man die Erwägungsgründe (insbesondere 24 und 26) des Vorschlags AILD zur Auslegung heran, sollte dieser Regelungsvorschlag aber wohl so zu verstehen sein, dass neben den aufgezählten Pflichten gemäß dem AI Act(-Vorschlag) prinzipiell auch “andere im Unionsrecht oder im nationalen Recht festgelegte Sorgfaltspflichten” für solche Nutzer in Frage gekommen wären, im Hinblick auf den AI Act-Vorschlag aber nur die aufgezählten.[21]
  • Sofern das betreffende KI-System durch den Beklagtenim Rahmen einer persönlichen nicht beruflichen Tätigkeit verwendet“ wird, wäre die Vermutung im Allgemeinen nur dann anwendbar gewesen, „wenn der Beklagte die Betriebsbedingungen des KI-Systems wesentlich verändert hat oder wenn er verpflichtet und in der Lage war, die Betriebsbedingungen des KI-Systems festzulegen, und dies unterlassen hat“ (Artikel 4 Absatz 6 Vorschlag AILD).

Die Vermutung hätte zudem vom Beklagten widerlegt werden können (Artikel 4 Absatz 7 Vorschlag AILD).

Offenlegungspflicht (Artikel 3)

Die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD sollte sich auf einschlägige Beweismittel zu bestimmten Hochrisiko-KI-Systemen, die einen Schaden verursacht haben sollen, beziehen, die wiederum Anbietern, Personen, die Anbieter-Pflichten gem AI Act(-Vorschlag) unterliegen, oder Nutzern vorliegen (Artikel 3 Absatz 1 Vorschlag AILD). In Hinblick auf die Beschränkung auf Hochrisiko-KI-Systeme ist insbesondere auf Erwägungsgrund 18 des Vorschlags AILD zu verweisen.

Dabei sollten nämlich diejenigen zur Offenlegung verpflichtet werden, die relevante Beweismittel – etwa aufgrund entsprechender Dokumentationspflichten gemäß AI Act(-Vorschlag) – innehaben (vgl Erwägungsgrund 16 Vorschlag AILD). Erwägungsgrund 16 Vorschlag AILD hielt zum Hintergrund zudem fest: "Der Zugang zu Informationen über bestimmte Hochrisiko-KI-Systeme, bei denen der Verdacht besteht, dass sie einen Schaden verursacht haben, ist ein wichtiger Faktor für die Feststellung, ob Schadensersatzansprüche geltend gemacht werden können, und für die Begründung derselben".

Zur Geltendmachung berechtigt – durch Antrag bei den entsprechenden nationalen Gerichten – wären gemäß Artikel 3 Absatz 1 Vorschlag AILD grundsätzlich entsprechende Kläger und potenzielle Kläger (vgl erneut Artikel 2 Ziffern 6 und 7 Vorschlag AILD) gewesen. Dabei hätte aber der Unterschied bestanden, dass potenzielle Kläger nur dann erfasst gewesen wären, wenn sie die betreffende Person zuvor vergeblich zur Offenlegung aufgefordert haben.[22] Weiters müssten diese „[z]ur Stützung seines Antrags [...] die Plausibilität [...] [ihres] Schadensersatzanspruchs durch die Vorlage von Tatsachen und Beweismitteln ausreichend belegen“ (jeweils Artikel 3 Absatz 1 Vorschlag AILD), während (tatsächliche) Kläger als Voraussetzung für die gerichtliche Anordnung in Verbindung mit einem einschlägigen Schadenersatzanspruch „alle angemessenen Anstrengungen unternommen“ haben müssten, „die einschlägigen Beweismittel vom Beklagten zu beschaffen“ (Artikel 3 Absatz 2 Vorschlag AILD).

Erwägungsgrund 17 Vorschlag AILD hielt in diesem Kontext (tendenziell im Zusammenhang mit potenziellen Klägern) auch fest: „Die Anordnung der Offenlegung sollte zu einer Vermeidung unnötiger Rechtsstreitigkeiten und Kosten, die durch ungerechtfertigte oder wahrscheinlich erfolglose Ansprüche verursacht werden, für die jeweiligen Prozessparteien führen“.

Die Offenlegung sollte schließlich durch die entsprechenden nationale Gericht angeordnet werden.[23] Dabei wären gemäß die Erforderlichkeit und Verhältnismäßigkeit zu beachten gewesen, wobei die Interessen aller Parteien (inklusive betroffener Dritter), wie insbesondere in Hinblick auf Geschäftsgeheimnisse im Sinne des Artikels 2 Absatz 1 der Richtlinie (EU) 2016/943, zu berücksichtigen gewesen wären (siehe im Detail Artikel 3 Absatz 4 Vorschlag AILD).[24]

Dabei sollten die Mitgliedstaaten den jeweiligen nationalen Gerichten Befugnisse für die Anordnung spezifischer Maßnahmen zur entsprechenden Beweismittelsicherung zugestehen (Artikel 3 Absatz 3 Vorschlag AILD) und jeweils angemessene Rechtsbehelfe gegen Anordnungen zur Offenlegung oder Beweismittelsicherung für die Personen vorsehen, gegen die diese ergehen (Artikel 3 Absatz 4 letzter Satz).           

Für den Fall, dass ein entsprechender Beklagter "im Rahmen eines Schadensersatzanspruchs" einer entsprechenden gerichtlichen Anordnung zur Beweismitteloffenlegung oder -sicherung nicht nachkommt, ordnete Artikel 3 Absatz 5 Vorschlag AILD schließlich die Vermutung für das jeweilige Gericht an, „dass der Beklagte gegen seine einschlägige Sorgfaltspflicht verstößt" (Hervorhebungen hinzugefügt). Das sollte insbesondere dann schlagend werden, wenn die entsprechend geforderten Beweismittel Umstände rund um die Verletzung jener AI Act-Anforderungen durch Nutzer bzw Anbieter und Personen, die Anbieter-Pflichten gem AI Act(-Vorschlag) unterliegen, im Zusammenhang mit Hochrisiko-KI nachweisen sollen, die gemäß Artikel 4 Absatz 2 bzw 3 für die Kausalitätsvermutung nach dem Vorschlag AILD relevant wären. Vgl zu dieser Vermutung auch schon oben unter Kausalitätsvermutung (Artikel 4).


Produkthaftungsrichtlinie neu

Allgemeines und Übergangsbestimmungen

Neben dem Vorschlag zur AILD enthielt auch schon der Vorschlag für eine neue Produkthaftungsrichtlinie Aspekte, die für die Haftung im Zusammenhang mit KI relevant sind.[25] Dieser Vorschlag, der auf eine Ersetzung der aus den 1980ern stammenden, alten Produkthaftungsrichtlinie[26] abzielte, wurde prinzipiell als Paket mit dem Vorschlag für die AILD schon 2022 von der Kommission vorgelegt.[27]

Im Gegensatz zur AILD wurde die neue Produkthaftungsrichtlinie (im Folgenden: PHRL neu) aber mittlerweile bereits im Amtsblatt veröffentlicht worden und 2024 prinzipiell in Kraft getreten.[28]

Die PHRL neu gilt allerdings erst für Produkte, die nach dem 9. 12. 2026 in Verkehr gebracht oder in Betrieb genommen werden (Artikel 2 Absatz 1 PHRL neu). Die Mitgliedstaaten müssen diese demnach bis zum 9. 12. 2026 in nationales Recht umsetzen (Artikel 22 Absatz 1 PHRL neu). Mit Wirkung vom 9. 12. 2026 wird grundsätzlich auch die alte Produkthaftungsrichtlinie aufgehoben, wenngleich diese auch weiterhin für Produkte gelten soll, die "vor diesem Zeitpunkt in Verkehr gebracht oder in Betrieb genommen wurden" (Artikel 21 PHRL neu).

Schon die alte Produkthaftungsrichtlinie regelt prinzipiell eine verschuldensunabhängige Haftung im Zusammenhang mit fehlerhaften Produkten für bestimmte davon zu unterscheidende Schäden, wobei die Haftung vorrangig den Produkthersteller trifft.[29] Dies ist im Wesentlichen auch Kern der PHRL neu, sie bringt allerdings auch eine Reihe von Neuerungen bzw Adaptionen mit sich, die insbesondere auch KI betreffen. Neben Produkten im digitalen Zeitalter sollte die PHRL neu insbesondere auch etwa die Kreislaufwirtschaft berücksichtigen.[30]

Neuer Produktbegriff und grundlegender Regelungsgegenstand

Im Rahmen der alten Rechtslage gab es umfassende Unklarheiten (bzw potenzielle Regelungslücken) in Hinblick darauf, inwieweit Software vom Produktbegriff erfasst ist.[6] Daraufhin sollte Software (bzw insbesondere auch KI) in den Produktbegriff aufgenommen werden.[31] Der schlussendlich beschlossene, neue Produktbegriff umfasst im Detail jetzt alle beweglichen Sachen, selbst wenn diese in andere bewegliche oder unbewegliche Sachen integriert oder mit diesen verbunden sind, und explizit auch Software, Elektrizität, digitale Konstruktionsunterlagen und Rohstoffe (Artikel 4 Ziffer 1 PHRL neu). Nach Erwägungsgrund 13 PHRL neu sind unter Software auch etwa KI-Systeme zu verstehen.[32] Mit der Adressierung von Software wurde dabei wohl Technologieneutralität bezweckt.[33]

Trotz der Neufassung des Produktbegriffs ergeben sich allerdings Auslegungsfragen hinsichtlich der Anwendbarkeit der PHRL neu. So soll im Rahmen der PHRL neu in gewisser Weise prinzipiell auch für Komponenten gehaftet werden (vgl etwa Artikel 8 Absatz 1, Artikel 11 PHRL neu), worunter körperliche oder nicht-körperliche Gegenstände, Rohstoffe oder verbundene Dienste verstanden werden, die in ein Produkt integriert oder damit verbunden sind (Artikel 4 Ziffer 4 PHRL neu). Mit verbundenen Diensten sind digitale Dienste gemeint, welche derart in ein Produkt integriert oder mit diesem verbunden sind, dass dieses ohne sie (eine oder mehrere seiner) Funktionen nicht erfüllen könnte (Artikel 4 Ziffer 3 PHRL neu). Dies ist vor allem deswegen relevant, weil nach Erwägungsgrund 17 PHRL neu prinzipiell Dienstleistungen per se nicht von der Richtlinie umfasst sein sollten. Daher könnten sich in der Folge voraussichtlich schwierige Abgrenzungsfragen, insbesondere in Hinblick auf tatbestandsmäßige potenzielle Auswirkungen auf die Funktionsweise des Produkts, stellen.[34]

Zudem wird in Erwägungsgrund 13 PHRL neu in Bezug auf Software wiederum angemerkt, dass diese „unabhängig von der Art ihrer Bereitstellung oder Nutzung“, demnach „unabhängig davon, ob die Software auf einem Gerät gespeichert oder über ein Kommunikationsnetz oder Cloud-Technologien abgerufen oder durch ein Software-as-a-Service-Modell bereitgestellt wird“ als Produkt erfasst sein sollte. Daraus könnten sich demnach wiederum Abgrenzungsfragen in Hinblick auf Dienstleistungen ergeben, die mit Software verbunden sind. Außerdem sollen digitale Dateien laut Erwägungsgrund 16 PHRL neu per se keine Produkte darstellen (abgesehen von gewissen digitale Konstruktionsunterlagen). Weiters sollen laut Erwägungsgrund 13 PHRL neu auch Informationen nicht als Produkt zu sehen sein. Die Produkthaftungsregelungen sollten demnach „nicht für den Inhalt digitaler Dateien wie Mediendateien oder E-Books oder den reinen Quellcode von Software gelten“. In dem Zusammenhang scheint in der Folge aber überlegenswert, inwieweit das auch Komponenten betreffen soll, also inwiefern etwa Sourcecode, oder auch Trainingsdaten für eine KI, eine (fehlerhafte) Komponente eines Softwareprodukts darstellen könnten.[35]

Eine wichtige Voraussetzung für die Haftung ist die Fehlerhaftigkeit (eines Produkts bzw einer Komponente[36]), die in Artikel 7 PHRL neu in Hinblick auf Produkte[37] prinzipiell damit umschrieben wird, dass das Produkt "nicht die Sicherheit bietet", die Personen erwarten dürfen oder die von Unions- oder nationalem Recht gefordert wird. Artikel 7 Absatz 2 PHRL neu regelt in der Folge, dass sämtliche Umstände bei dieser Beurteilung Berücksichtigung finden müssen und zählt dazu einige Aspekte auf, wie auch etwa die "einschlägigen Anforderungen an die Produktsicherheit, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen" (Buchstabe f). Dazu ist allerdings anzumerken, dass die Fehlerhaftigkeit des Produkts vermutet werden soll, wenn der Kläger nachweist, dass das Produkt verbindliche Produktsicherheitsanforderungen gemäß Unions- oder nationalem Recht nicht erfüllt, sofern diese den Schutz vor dem Risiko des Schadens, den die geschädigte Person erlitten hat, gewährleisten sollen (Artikel 10 Ansatz 2 Buchstabe b PHRL neu). Siehe weiters noch unter Synergien; AI Act und PHRL neu.

Die Frage, wer welche Schäden geltend machen kann, wird insbesondere in den Artikeln 5 und 6 der PHRL neu adressiert. Demnach soll zunächst grundsätzlich „jede natürliche Person, die einen durch ein fehlerhaftes Produkt verursachten Schaden erleidet", einen Schadenersatzanspruch gemäß der PHRL neu haben, wobei dieser auch durch gewisse andere Personen geltend gemacht werden können soll (vgl im Detail Artikel 5 PHRL neu). Dabei sollen lediglich folgende Kategorien von Schäden grundsätzlich ersetzt werden (Artikel 6 Absatz 1 PHRL neu):

  • Tod oder Körperverletzung, einschließlich medizinisch anerkannter Beeinträchtigungen der psychischen Gesundheit
  • Beschädigung oder Zerstörung von Sachen, außer:
    • das fehlerhafte Produkt selbst
    • ein Produkt, das durch eine fehlerhafte Komponente dieses Produkts beschädigt wurde, die vom Hersteller des Produkts oder unter der Kontrolle dieses Herstellers in das Produkt integriert oder mit diesem verbunden wurde
    • Sachen, die ausschließlich für berufliche Zwecke verwendet werden
  • Vernichtung oder Beschädigung von Daten, die nicht für berufliche Zwecke verwendet werden

Dabei sind insbesondere sich daraus ergebende Vermögensschäden abgedeckt (Artikel 6 Absatz 2 erster Satz PHRL neu). Zudem sollen aber auch entsprechende immaterielle Schäden abgedeckt werden, "soweit für Schäden dieser Art nach nationalem Recht eine Entschädigung verlangt werden kann" (Artikel 6 Absatz 2 zweiter Satz PHRL neu).Die PHRL neu enthält im Gegensatz zur alten Produkthaftungsrichtlinie auch keinen Selbstbehalt für Sachschäden mehr.[38]

Welcher Wirtschaftsakteur in weiterer Folge für entsprechende Schäden haftbar gemacht werden kann, wird im Detail vor allem in Artikel 8 PHRL neu geregelt. Dies betrifft insbesondere die Hersteller der fehlerhaften Produkte und die Hersteller von fehlerhaften Komponenten, die "unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden" wurden und dessen Fehlerhaftigkeit verursacht haben (Artikel 8 Absatz 1 Unterabsatz 1 Buchstaben a und b PHRL neu). Zudem soll die Haftung des Produktherstellers nach Artikel 8 Absatz 1 Unterabsatz 1 Buchstabe a PHRL neu auch Schäden umfassen, "die durch eine fehlerhafte Komponente verursacht werden, wenn diese unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden wurde".[39] Daneben sollen unter Umständen auch weitere Personen in Haftung genommen werden können (siehe im Detail Artikel 8 Absatz 2 und folgende PHRL neu).

Die verschiedenen Akteure werden grundsätzlich in Artikel 4 PHRL neu definiert, so etwa der Hersteller in Ziffer 10[40]. Im Übrigen sollen nach Erwägungsgrund 13 PHRL neu etwa die Anbieter von KI-Systemen im Sinne des AI Act als Hersteller gelten.

Für KI spezifisch relevante Regelungen

Die PHRL neu enthält auch spezifisch im Zusammenhang mit KI relevante Regelungen (abseits des erweiterten Produktbegriffs). Im Zusammenhang mit KI besonders relevant sind der Begründung des Richtlinienvorschlags und den Erwägungsgründen der PHRL neu folgend insbesondere bestimmte Beweiserleichterungen gemäß Artikel 10 PHRL neu und gewisse Haftungsszenarien, die sich aus Artikel 11 PHRL neu ergeben.[41]

Prinzipiell muss der Kläger die Fehlerhaftigkeit des Produkts, den erlittenen Schaden und den Kausalzusammenhang zwischen Fehlerhaftigkeit und Schaden beweisen (Artikel 10 Absatz 1 PHRL neu). Gemäß Artikel 10 Absatz 4 sind allerdings gewisse Beweiserleichterungen in Hinblick auf komplexe Fälle vorgesehen. Voraussetzung dafür ist einerseits, dass der Kläger insbesondere aufgrund der technischen oder wissenschaftlichen Komplexität übermäßige Schwierigkeiten damit hat, „die Fehlerhaftigkeit des Produkts oder den ursächlichen Zusammenhang zwischen dessen Fehlerhaftigkeit und dem Schaden oder beides zu beweisen" (Artikel 10 Absatz 4 Buchstabe b PHRL neu). Andererseits muss der Kläger nachgewiesen haben, „dass das Produkt fehlerhaft ist oder dass ein ursächlicher Zusammenhang zwischen der Fehlerhaftigkeit des Produkts und dem Schaden besteht, oder beides". Zudem müssen die Voraussetzungen trotz der Offenlegung von Beweismitteln gemäß Artikel 9 PHRL neu und unter Berücksichtigung aller relevanten Umstände des Falls vorliegen (Artikel 10 Absatz 4 PHRL neu). Erwägungsgrund 48 PHRL neu nennt als Kriterien für die technische oder wissenschaftliche Komplexität beispielsweise auch die Komplexität der verwendeten Technologie (etwa maschinelles Lernen) und die Komplexität des Kausalzusammenhangs, die dabei auch mit der Funktionsweise von KI-Systemen in Verbindung gebracht wird. Die Vermutungen und Annahmen nach Artikel 10 PHRL neu sollen schließlich gemäß dessen Absatz 5 vom Beklagten widerlegbar sein.

Artikel 11 PHRL neu enthält demgegenüber im Allgemeinen Regelungen darüber, wann sich die jeweiligen Wirtschaftsakteure von einer Haftung freibeweisen können. Dies betrifft etwa den Fall dass der Wirtschaftsakteur beweist, "dass es wahrscheinlich ist, dass die Fehlerhaftigkeit, die den Schaden verursacht hat, zum Zeitpunkt des Inverkehrbringens, der Inbetriebnahme oder — bei einem Lieferanten — des Bereitstellens auf dem Markt noch nicht bestanden hat oder dass diese Fehlerhaftigkeit erst nach dem betreffenden Zeitpunkt entstanden ist" (Artikel 11 Absatz 1 Buchstabe c PHRL neu). In Bezug darauf enthält Artikel 11 Absatz 2 PHRL neu allerdings Ausnahmen, im Rahmen derer entsprechende Wirtschaftsakteure dennoch haftbar bleiben. Dabei geht es darum, dass die jeweilige Fehlerhaftigkeit des Produkts einen der Gründe hat, die in der Bestimmung genannt werden, sofern diese zudem der Kontrolle des Herstellers unterliegen. Dies umfasst unter anderem verbundene Dienste und Software (einschließlich Software-Updates oder -Upgrades) sowie wesentliche Änderungen des Produkts, die wiederum im Detail in Artikel 4 Ziffer 18 PHRL neu definiert werden. Die Erwägungsgründe verweisen in diesem Zusammenhang wiederum beispielhaft auf maschinelles Lernen bzw. fortlaufend lernende KI-Systeme.[42]

Sonstiges

Artikel 9 PHRL neu sieht Offenlegungspflichten für bestimmte Beweismittel vor.

Gemäß Artikel 12 Absatz 1 PHRL neu sollen im Falle mehrerer für denselben Schaden haftbarer Wirtschaftsakteure diese solidarisch haftbar gemacht werden.

Die Haftung nach der PHRL neu soll gemäß deren Artikel 15 grundsätzlich nicht vertraglich oder durch nationales Recht ausgeschlossen oder beschränkt werden können. Gemäß Artikel 12 Absatz 2 PHRL neu kann aber der Haftungsrückgriff von Produktherstellern auf bestimmte kleine Unternehmen, die eine in das Produkt integrierte Softwarekomponente hergestellt haben, welche wiederum fehlerhaft war und einen Schaden verursacht hat, vertraglich ausgeschlossen werden.

Synergien

Allgemein

  • Der ursprüngliche Vorschlag zur AILD und die neue Produkthaftungsrichtlinie zielen prinzipiell auf verschiedene Anwendungsfälle bzw Haftungsszenarien ab, haben sich dabei jedoch dementsprechend ergänzt.[43]

AI Act und Vorschlag AILD

  • Zudem waren diese Vorschläge als Paket mit jenem für den AI Act zu sehen.[44] Insbesondere durch die Heranziehung der Begrifflichkeiten aus dem AI Act(-Vorschlag), aber auch durch die Heranziehung entsprechender Sorgfaltspflichten als Voraussetzung für die Kausalitätsvermutung (Artikel 4 Vorschlag AILD) hätten sich bei der AILD gegebenenfalls auch entsprechende Synergien mit dem AI Act ergeben. Umgekehrt können aus der Interpretation gewisser Pflichten nach dem AI Act(-Vorschlag) durch den Vorschlag für die AILD auch gewisse Ansatzpunkte für die Auslegung des AI Acts gewonnen werden. Denn nach dem Vorschlag AILD sollten, um die Kausalitätsvermutung gemäß Artikel 4 auszulösen (neben anderen Voraussetzungen), nur Verstöße gegen solche Sorgfaltspflichten einschlägig sein, „deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern“.[45] Zumindest in Hinblick auf Anbieter von Hochrisiko-KI-Systemen sollten in dem Zusammenhang wiederum nur bestimmte, taxativ aufgezählte Pflichten nach dem AI Act einschlägig sein.[46] In diesem Zusammenhang nannte Erwägungsgrund 22 auch explizit Erfordernisse, die nicht auf einen entsprechenden Schutz vor Schäden abzielen sollen (was wohl auch den AI Act betrifft), indem dieser festhielt: „Verstöße gegen Sorgfaltspflichten, deren unmittelbarer Zweck nicht darin besteht, den eingetretenen Schaden zu verhindern, führen nicht zur Geltung der Vermutung; wenn beispielsweise ein Anbieter die erforderlichen Unterlagen nicht bei den zuständigen Behörden einreicht, würde dies bei Schadensersatzansprüchen aufgrund von Personenschäden nicht zur Geltung der Vermutung führen“. Demnach scheint die EU-Kommission im Vorschlag AILD (zumindest in manchen Bereichen) nur manche AI Act-(Vorschlag)-Pflichten als „Sorgfaltspflicht, deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern“ interpretiert zu haben. Das könnte wiederum Auswirkungen auf die Auslegung von AI Act-Regelungen als Schutzgesetze im Sinne des § 1311 ABGB, und damit dem Schadenersatz bei Verletzung des AI Acts, haben.

Nationale zivilrechtliche Haftungsregime

  • Nach dem Vorschlag sollte die AILD außerdem quasi bestehende zivilrechtliche Haftungsregime bzw entsprechende nationale und unionrechtliche Regelungen ergänzen.[47] Die AILD wäre demnach gegebenenfalls gemeinsam mit diesen zu sehen gewesen.

AI Act und PHRL neu

  • Im Rahmen der neuen Produkthaftungsrichtlinie wurde explizit auf den AI Act Bezug genommen, indem in den Erwägungsgründen festgehalten wurde, dass "Entwickler oder Hersteller von Software, einschließlich der Anbieter von KI-Systemen im Sinne [...]" des AI Acts als Hersteller erachtet werden sollten. Darüber hinaus ist davon auszugehen, dass auch die Bezugnahmen auf KI-Systeme in den Erwägungsgründe vermutlich (insbesondere) im Sinne des AI Acts zu verstehen sind (siehe auch unter Anwendungsbereich und neuer Produktbegriff).
  • Zudem kann es sich bei Regelungen des AI Acts wohl auch um Produktsicherheitsanforderungen im Sinne des Artikel 7 Absatz 2 Buchstabe f bzw Artikel 10 Absatz 2 Buchstabe b PHRL neu handeln, die wiederum für die Beurteilung der Fehlerhaftigkeit eines KI-Systems relevant wären.

Fallbeispiele

Beispiel 1: KI-gestütztes Kreditscoring

Sachverhalt Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.

Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.

Einordnung AI Act Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Ziffer 5 Buchstabe b vor (siehe im Detail Hochrisiko-KI-Systeme im AI Act).
Einordnung AI Liability Directive In Hinblick auf die diskriminierende Trainingsdatenbasis wäre gegebenenfalls insbesondere in Hinblick auf den Anbieter des Systems die Kausalitätsvermutung gemäß Artikel 4 Vorschlag AILD relevant.

Durch eine entsprechende Verletzung von Artikel 10 AI Act (siehe im Detail Anforderungen an Hochrisiko-KI-Systeme) könnte Artikel 4 Absatz 2 Buchstabe a Vorschlag AILD erfüllt werden, indem eine der taxativ aufgezählten Pflichten von Hochrisiko-KI-Anbietern gemäß Artikel 4 Absatz 2 Buchstabe a betroffen wäre. Damit wäre bei einem entsprechenden Schadenersatzanspruch gegen den Anbieter unter der Voraussetzung, dass der Kläger ein entsprechendes Verschulden des Anbieters nachweist, sowie, dass das Ergebnis des Kredit-Scorings zu seinem Schaden geführt hat, die Kausalitätsvermutung anwendbar, sofern weiters auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden kann, dass das Verschulden das Ergebnis des Kredit-Scorings beeinflusst hat. Jedenfalls nach dem Sachverhalt kann von einer solchen Beeinflussung ausgegangen werden.

Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre gegebenenfalls auch die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD anwendbar. Demnach müssten gegebenenfalls einschlägige Beweismittel, die dem Anbieter des Kredit-Scoring-Systems vorliegen, offengelegt werden, was insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act hinsichtlich der Trainingsdatenbasis relevant sein wird (vgl insbesondere Erwägungsgründe 16, 18 und 19; Anforderungen an Hochrisiko-KI-Systeme).

Werden die Beweismittel trotz gerichtliche Anordnung nicht offengelegt, kann Sorgfaltspflichtverstoß gemäß Artikel 3 Absatz 5 Vorschlag AILD auch vermutet werden, was wiederum insbesondere Beweismittel betreffen soll, die die Verletzung von Anforderungen durch den KI-Anbieter beweisen sollen (Artikel 4 Absatz 2 Vorschlag AILD). Diese Vermutung könnte gemäß Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD wiederum insbesondere für die Kausalitätsvermutung relevant sein.

Einordnung Produkthaftungs-RL Die Produkthaftungsrichtlinie ist bei reinen Vermögensschäden nicht anwendbar (Artikel 6 e contrario; Erwägungsgründe 23 und 24 PHRL neu).

Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen

Sachverhalt Ein KI-Chatbotassistent wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.

Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.[48]

Einordnung AI Act Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Artikel 5 AI Act, noch ein Hochrisiko-KI-System gemäß Artikel 6 AI Act vorliegen.

Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail Transparenzpflichten). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen.

Einordnung AI Liability Directive Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die Kausalitätsvermutung nach dem Vorschlag zur AILD relevant.

Hierbei wäre aber wohl vor allem zu überlegen, inwieweit in Hinblick auf den fehlerhaften Assistenz-Chatbot ein Verschulden der Bank bzw des KI-Anbieters oder einer Person vorliegt, für deren Verhalten diese jeweils verantwortlich wären. Dieses müsste im Verstoß gegen eine national- oder unionsrechtlich festgelegte Sorgfaltspflicht liegen, deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern,[49] und in der Folge nachgewiesen werden, wie auch die Kausalität der Übernahme der falschen Überweisungssumme für den geltend gemachten Schaden (Artikel 4 Absatz 1 Buchstabe a und c Vorschlag AILD).

Der Schaden könnte im Beispiel zumindest etwa in den Kosten dafür bestehen, die fehlerhafte Überweisung rückgängig zu machen. Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das Verschulden den beschriebenen Fehler des Chatbots beeinflusst hat.

Da kein Hochrisiko-KI-System vorliegt, wäre die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD allerdings nicht anwendbar. Somit könnten auf dieser Basis auch nicht die Vorlage entsprechender Beweismittel geltend gemacht werden, was die beschriebenen Nachweise wohl erschweren würde.

Einordnung Produkthaftungs-RL Die Produkthaftungsrichtlinie ist bei reinen Vermögensschäden nicht anwendbar (Artikel 6 e contrario; Erwägungsgründe 23 und 24 PHRL neu).

Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer

Sachverhalt Ein KI-Assistenzsystem, das standardmäßig auf Betriebssystemebene bei einer bestimmten Marke privater Computer implementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.

Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht.

Variante: Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „Löschung“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert.

Einordnung AI Act Für die Nutzerin als Betreiberin liegt vermutlich die "Haushaltsausnahme" vor, wodurch der AI Act nicht zur Anwendung kommt (Artikel 2 Absatz 10 AI Act).

Für den Anbieter: Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Artikel 5 AI Act, noch ein Hochrisiko-KI-System gemäß Artikel 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich im Sinne von Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Artikel 6 Absatz 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act einschlägig sein (siehe im Detail Transparenzpflichten). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das "für die direkte Interaktion mit natürlichen Personen bestimmt" ist.

Einordnung AI Liability Directive Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die Kausalitätsvermutung nach dem Vorschlag zur AILD relevant. Wie in Beispiel 2 wäre allerdings der Nachweis eines Verschuldens (wohl insbesondere des Anbieters und von Personen, für deren Verhalten dieser verantwortlich ist) und der Kausalität der Aktionen des Assistenzsystems für den Schaden fraglich. Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass ein etwaiges Verschulden die beschriebene Aktion des Assistenzsystems beeinflusst hat.

Die geforderten Nachweise sind wiederum auch deswegen fraglich, weil diesfalls die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD nicht anwendbar wäre, weil grundsätzlich kein Hochrisiko-KI-System vorliegt.

Einordnung Produkthaftungs-RL Die Produkthaftungsrichtlinie ist zwar bei reinen Vermögensschäden nicht anwendbar (Artikel 6 e contrario; Erwägungsgründe 23 und 24 PHRL neu), allerdings sehr wohl auf Vermögensschäden, die sich aus der Vernichtung oder Beschädigung von Daten ergeben, welche nicht für berufliche Zwecke verwendet werden (Artikel 6 Absatz 2 in Verbindung mit Absatz 1 Buchstabe c PHRL neu). Dies würde nach dem Sachverhalt grundsätzlich zutreffen, jedenfalls sofern sich aus der Löschung der Dokumente ein finanzieller Schaden ergibt. Dieser wäre dann prinzipiell ersatzfähig.

Weiters wären aber auch entsprechende immaterielle Schäden erfasst, soweit diese nach dem nationalen Recht ersatzfähig sind, was sich nach Erwägungsgrund 23 PHRL neu insbesondere auf Schmerzen und Leid beziehen soll. Diesbezüglich ist demnach auch noch die konkrete nationale Umsetzung abzuwarten.

Da es sich bei dem Assistenzsystem um eine Software und damit ein Produkt im Sinne des Artikel 4 Ziffer 1 PHRL neu handelt, wäre weiters zu überlegen, inwieweit eine Fehlerhaftigkeit des Assistenzsystems die jeweiligen Schäden verursacht hat.

Bei der Beurteilung der Fehlerhaftigkeit sind gemäß Artikel 7 Absatz 2 PHRL neu grundsätzlich alle Umstände einzubeziehen, was insbesondere auch einschlägige Produktsicherheitsanforderungen, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen, betrifft (Buchstabe f). Daneben sind auch andere mögliche Parameter in Artikel 7 Absatz 2 PHRL neu genannt. Sofern der Kläger den Nachweis erbringen würde, dass das System verbindliche Produktsicherheitsanforderungen verletzt, die vor dem Risiko des erlittenen Schadens schützen sollen, wäre die Fehlerhaftigkeit gemäß Artikel 10 Absatz 2 Buchstabe b sogar zu vermuten. Da die Cybersicherheitsanforderungen des gemäß Artikel 15 AI Act nur auf Hochrisiko-KI-Systeme anwendbar sind (siehe Genauigkeit, Robustheit und Cybersicherheit), müsste die Fehlerhaftigkeit diesfalls anhand anderer Parameter bzw Überlegungen hinsichtlich der Sicherheit, die eine Person erwarten darf oder die rechtlich vorgeschrieben ist, festgestellt werden.

Bei der Variante hingegen liegt nach dem Sachverhalt insbesondere der Schluss nahe, dass die Informationspflichten gemäß Artikel 50 Absatz 1 AI Act nicht eingehalten wurden. Sofern man davon ausgeht, dass es sich dabei um verbindliche Produktsicherheitsanforderungen handelt, die vor dem Risiko des jeweiligen Schadens schützen sollen, und die Nutzerin eine entsprechende Verletzung nachweist, wäre die Fehlerhaftigkeit des Assistenzsystems als Produkt zu vermuten.

Da bei dem Assistenzsystem prinzipiell ein Produkt vorliegt, könnte gegebenenfalls insbesondere der Hersteller für deren Fehlerhaftigkeit haftbar gemacht werden (Artikel 8 Ab 1 Buchstabe a PHRL neu; vgl auch Erwägungsgrund 36 PHRL neu). Dies kann nach Erwägungsgrund 13 PHRL neu insbesondere der Anbieter eines KI-Systems sein.

Zudem könnte unter Umständen auch der Hersteller des Betriebssystems haftbar gemacht werden, soweit es sich nicht ohnehin um denselben Hersteller handelt und sofern das Assistenzsystems als Komponente unter der Kontrolle des Herstellers in das Betriebssystem integriert wurde und damit dessen Fehlerhaftigkeit verursacht hat. Nach dem Sachverhalt wäre das grundsätzlich gegeben, insbesondere da es sich bei dem Assistenzsystem auch um eine Komponente gemäß Artikel 4 Ziffer 4, im Sinne eines nicht-körperlichen Gegenstands handelt, der in das Betriebssystem als Produkt integriert ist (vgl Erwägungsgründe 13 und 36 PHRL neu). Weiters könnte aber unter sinngemäßen Umständen auch der Hersteller des Computers haftbar gemacht werden, weil das Betriebssystem schließlich auch eine Komponente des Computers darstellt. Je nach den Umständen des Falles kommen auch noch andere Wirtschaftsakteure für eine Haftung in Frage.

Mehrere haftbare Wirtschaftsakteure sollen nach Artikel 12 Absatz 1 PHRL neu prinzipiell solidarisch haften (vgl allerdings Absatz 2 zum möglichen Ausschluss des Regresses).

Die Tatsache, dass (auch) die Handlung eines Angreifers zu entsprechenden Schäden geführt hat, darf die Haftung der jeweiligen Wirtschaftsakteure jedenfalls auch nicht mindern oder ausschließen (vgl Artikel 13 Absatz 1, Erwägungsgrund 55 PHRL neu).

Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung

Sachverhalt Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.

Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfarbe, weshalb das System Hautkrebs bei Personen mit dunklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt.

Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet.

Einordnung AI Act Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Artikel 6 Absatz 1 AI Act.

Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Artikel 10 AI Act verletzt.

Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die Möglichkeit der Änderung der Rolle). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Artikel 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird.

Einordnung AI Liability Directive Nachdem ein Hochrisiko-KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die Kausalitätsvermutung nach dem Vorschlag zur AILD relevant. Hierbei wäre aber wohl vor allem zu überlegen, inwieweit in Hinblick auf die fehlerhaften Ergebnisse der KI ein Verschulden des KI-Anbieters oder einer Person vorliegt, für deren Verhalten dieser verantwortlich wäre. Dies müsste in der Folge nachgewiesen werden.

Dieses Verschulden könnte bei Anbietern von Hochrisiko-KI wiederum nur in der Verletzung bestimmter Anforderungen des AI Acts liegen. Darunter würde gemäß Artikel 4 Absatz 2 Buchstabe a Vorschlag AILD aber prinzipiell auch das Training mit Daten fallen, die nicht den Qualitätskriterien des Artikel 10 AI Act entsprechen.

Weiters müsste auch die Kausalität der fehlerhaften Diagnose bzw Therapieempfehlungen für den geltend gemachten Schaden nachgewiesen werden (Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das Verschulden den beschriebenen Fehler des KI-Systems beeinflusst hat. Davon wäre beim Vorliegen eines Verschuldens auf der Seite des KI-Anbieters im soeben beschriebenen Sinn aber wohl auszugehen.

Im Übrigen hätte das im Sachverhalt beschriebene, potenzielle Fehlverhalten der Ärztin die fehlerhaften Ausgaben des KI-Systems wohl nicht beeinflusst, weil es ja erst im Nachhinein erfolgt wäre. Dies wäre wiederum bei entsprechenden Schadenersatzforderungen gegen die Klinik als Nutzer (Betreiber) des KI-Systems in Hinblick auf die Kausalitätsvermutung gemäß Vorschlag AILD relevant. Insbesondere ein Verstoß gegen die Pflicht zur Verwendung des KI-Systems nach seiner Gebrauchsanweisung (als Verstoß gegen einschlägige Sorgfaltspflichten des Nutzers/Betreibers der KI) könnte aber wiederum durchaus einschlägig sein.

Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre gegebenenfalls auch die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD anwendbar. Demnach müssten gegebenenfalls einschlägige Beweismittel, die dem Anbieter des Systems vorliegen, offengelegt werden, was insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act hinsichtlich der Trainingsdatenbasis relevant sein wird (vgl insbesondere Erwägungsgründe 16, 18 und 19; Anforderungen an Hochrisiko-KI-Systeme). Würden die Beweismittel trotz gerichtlicher Anordnung nicht offengelegt, könnte ein Sorgfaltspflichtverstoß gemäß Artikel 3 Absatz 5 Vorschlag AILD auch vermutet werden, was wiederum insbesondere Beweismittel betreffen soll, die die Verletzung von Anforderungen durch den KI-Anbieter beweisen sollen (Artikel 4 Absatz 2 Vorschlag AILD). Diese Vermutung könnte gemäß Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD wiederum insbesondere für die Kausalitätsvermutung relevant sein.

Einordnung Produkthaftungs-RL Da es sich bei dem System um eine Software und damit ein Produkt im Sinne des Artikel 4 Ziffer 1 PHRL neu handelt, wäre die PHRL neu grundsätzlich anwendbar.

Weiters liegt ein ersatzfähiger Schaden in Form der Körperverletzung vor (Artikel 6 Absatz 1 Buchstabe a PHRL neu).

Nachdem durch die Verletzung der Qualitätsanforderungen an die Trainingsdaten der KI nach Artikel 10 AI Act verbindliche Produktsicherheitsanforderungen verletzt wurden, die wohl durchaus vor dem Risiko des erlittenen Schadens schützen sollen, wäre die Fehlerhaftigkeit der KI als Produkt gemäß Artikel 10 Absatz 2 Buchstabe b PHRL neu zu vermuten, sofern der Verstoß durch den Kläger nachgewiesen wird.

Diesfalls wäre insbesondere als Hersteller insbesondere der Anbieter des KI-Systems haftbar. Je nach den Umständen des Falles kommen aber auch andere Wirtschaftsakteure für eine Haftung in Frage.

Weiterführende Literatur

Versionen der Produkthaftungsrichtlinie

  • Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final
  • Provisional Agreement Resulting From Interinstitutional Negotiations - Proposal for a directive of the European Parliament and of the Council on Liability for defective products (COM(2022)0495 – C9 0322/2022 – 2022/0302(COD))
  • Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024

Fachliteratur und Ähnliches

  • Borges, Liability for AI Systems Under Current and Future Law - An overview of the key changes envisioned by the proposal of an EU-directive on liability for AI, Computer Law Review International 1/2023
  • European Data Protection Supervisor, Opion 42/2023 on the Porporsals for two Directives on AI liability rules, 11. 10. 2023
  • European Parliamentary Research Service, Artificial intelligence liability directive, PE 739.342, February 2023
  • European Parliamentary Research Service, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024
  • Dötsch, Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023)
  • Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107
  • Joggerst/Wendt, Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13
  • Larcher, Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130

Judikatur

  • OGH 3. 8. 2021, 8 ObA 109/20t

Newsbeiträge und Ähnliches

Einzelnachweise

  1. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2, 3 und 13; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und folgende, Erwägungsgrund 3.
  2. Vgl kritisch etwa: European Parliamentary Research Service, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024, Seite 27 mit weiteren Nachweisen.
  3. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und 14, Erwägungsgrund 2; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 3, 12 und 13, Erwägungsgründe 9, 10, 23 und 24, Artikel 1.
  4. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 1, 2, 13, 15, 16, Erwägungsgründe 22 und 28, Artikel 3(5).
  5. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 5 und folgende, 17.
  6. 6,0 6,1 Vgl etwa Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seite 1; European Parliamentary Research Service, Artificial intelligence liability directive, PE 739.342, February 2023, Seite 3; für Österreich etwa: Larcher, Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130 (Seiten 133, 134); für Deutschland etwa: Dötsch, Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023), insbesondere Seiten 276 und folgende; Joggerst/Wendt, Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13.
  7. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 6, Erwägungsgrund 12.
  8. Siehe: Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024.
  9. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final; siehe zum Verfahren auch etwa https://eur-lex.europa.eu/legal-content/EN/HIS/?uri=CELEX%3A52022PC0496 (abgerufen am 18. 2. 2025).
  10. Vgl Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024); Tom Whittaker, EU AI Liability Directive: An Update, in: Burges Salmon blog, https://blog.burges-salmon.com/post/102jfdv/eu-ai-liability-directive-an-update(abgerufen am 26. 11. 2024).
  11. European Parliamentary Research Service, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024; siehe auch Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive(abgerufen am 26. 11. 2024).
  12. Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Commitee of the Regions, Commission work programme 2025         Moving forward together. A Bolder, Simpler, Faster Union, COM(2025) 45 final, https://commission.europa.eu/strategy-and-policy/strategy-documents/commission-work-programme/commission-work-programme-2025_en.
  13. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 13-16; Grundsätzlich konnte auch die Vermutung von Sorgfaltspflichtsverstößen gemäß Artikel 3 Absatz 5 Vorschlag AILD als ein eigenes Element zur Beweiserleichterung gesehen werden, ist aber systematisch in der Bestimmung zur Offenlegungspflicht enthalten (vgl insbesondere Seiten 10 und 15 in der Begründung des Vorschlags; siehe im Detail dazu noch im Folgenden).
  14. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 14 sowie Erwägungsgrund 15.
  15. Vgl insbesondere Erwägungsgründe 26 bis 28.
  16. Im Allgemeinen ist anzumerken, dass bei den Begrifflichkeiten des Vorschlags AILD wie auch der neuen Produkthaftungsrichtlinie im Normtext keine gendergerechte Sprache verwendet wird. Daher kann, soweit auf diese Begrifflichkeiten Bezug genommen wird, auch hier keine gendergerechte Sprache verwendet werden. Abgesehen davon wird dies jedenfalls entsprechend berücksichtigt.
  17. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13, Erwägungsgründe 10, 20-24, Artikel 1.
  18. Siehe insbesondere Artikel 1(3)(d), Erwägungsgründe 10 und 22; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.
  19. Hervorhebungen hinzugefügt. Zur Unterscheidung von (objektivem) Sorgfaltsmaßstab(/Sorgfaltsverstoß) und (subjektivem) Verschulden vgl national etwa zur Haftung der GmbH-Geschäftsführung: OGH 3. 8. 2021, 8 ObA 109/20t, insbesondere Randziffer 80 mit weiteren Nachweisen; Feltl/Told in Gruber/Harrer (Hrsg), GmbHG² (2018) § 25 Rz 120.
  20. Artikel 4 Absatz 2 Buchstabe b Vorschlag AILD.
  21. Vgl Erwägungsgrund 22 Vorschlag AILD, worin unter anderem festgehalten wird, dass die Richtlinie Verschulden derartiger Nutzer erfassen sollte, ”wenn das betreffende Verschulden in der Nichteinhaltung bestimmter spezifischer Anforderungen gem AI Act bestünde; Hervorhebungen hinzugefügt.
  22. Das Wort "zuvor" bezog sich dabei wohl eher auf den Antrag als auf die schlussendliche gerichtliche Anordnung (vgl Artikel 3 Absatz 1 Vorschlag AILD, etwa auch in englischer Sprachfassung).
  23. Vgl insbesondere Artikel 3 und Erwägungsgrund 19 Vorschlag AILD.
  24. Zum Hintergrund ist auf insbesondere auf Erwägungsgrund 19 Vorschlag AILD zu verweisen.
  25. Siehe grundlegend Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6.
  26. Richtlinie 85/374/EWG des Rates vom 25. Juli 1985 zur Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Haftung für fehlerhafte Produkte, ABl L 1985/210, 29.
  27. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 5 und 8; vgl auch Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2 und 3.
  28. Siehe Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024 (insbesondere Artikel 23).
  29. Vgl Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196).
  30. Vgl insgesamt Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 2, 6, 11 und 12, Erwägungsgrund 2, Artikel 1; vgl zum Entwurfsstadium auch Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107.
  31. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 6, 9, 11, 12 und 14, Erwägungsgrund 12, Artikel 4 Ziffer 1.
  32. Vgl auch Erwägungsgrund 3 PHRL neu und zum Entwurfsstadium Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (197); in Erwägungsgrund 13 PHRL neu wird zudem auf die Anbieter von KI-Systemen gemäß AI Act Bezug genommen, weshalb davon auszugehen sein wird, dass mit KI-Systemen wohl jene im Sinne des AI Act (Artikel 3 Ziffer 1 AI Act) gemeint sind.
  33. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 14.
  34. Vgl zum Entwurfsstadium im Zusammenhang mit digitalisierten Wissensinhalten auch Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196 f); vgl grundlegend dazu insbesondere auch Erwägungsgrund 17 PHRL neu.
  35. Dabei sollte wohl insbesondere die Frage zentral sein, inwieweit ein quasi funktional essentieller nicht-körperlicher Gegenstand vorliegt, wobei Erwägungsgrund 20 PHRL neu implizit etwa Daten, wie ursprünglich auf einer Festplatte gespeicherte digitale Dateien, als nicht-körperliche Vermögensgegenstände sieht; vgl zum Entwurfsstadium im Zusammenhang mit digitalisierten Wissensinhalten erneut auch Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196 f).
  36. Vgl im Detail Artikeln 5, 6, 7 und 8 PHRL neu, wobei insbesondere anzumerken ist, dass der Wortlaut von Artikel 5, der den Schadenersatzanspruch grundlegend statuiert, nur auf fehlerhafte Produkte und nicht auch fehlerhafte Komponenten Bezug nimmt.
  37. Komponenten finden dabei grundsätzlich keine Erwähnung.
  38. Vgl zum Entwurfsstadium Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (197) sowie Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seiten 1 und 10.
  39. Siehe Artikel 8 Absatz 1 Unterabsatz 2 PHRL neu, wobei allerdings erneut auch auf die Formulierung von Artikel 5 PHRL neu hinzuweisen ist.
  40. Dabei wird jedoch wiederum nur auf Produkte und nicht auf Komponenten explizit Bezug genommen.
  41. Vgl Erwägungsgründe 40, 48 und 50 PHRL neu; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6.
  42. Vgl insbesondere Erwägungsgründe 40 und 48 PHRL neu.
  43. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seite 5; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 3.
  44. Vgl darüber hinaus Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2 und 3.
  45. Vgl Erwägungsgrund 22 und Artikel 4(1)(a).
  46. Vgl Erwägungsgrund 26 und Artikel 4(2).
  47. Siehe Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13; siehe zudem unter Allgemeines und Anwendungsbereich.
  48. Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.
  49. Im Detail versteht Artikel 2 Ziffer 9 Vorschlag AILD darunter "einen im nationalen Recht oder im Unionsrecht festgelegten Verhaltensmaßstab, der einzuhalten ist, um eine Beeinträchtigung von im nationalen Recht oder im Unionsrecht anerkannten Rechtsgütern, einschließlich Leben, körperlicher Unversehrtheit, Eigentum und Wahrung der Grundrechte, zu vermeiden".