KI-Haftungsregelungen: Unterschied zwischen den Versionen
PP (Diskussion | Beiträge) |
PP (Diskussion | Beiträge) |
||
(84 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
Zeile 3: | Zeile 3: | ||
{{Infobox Rechtsakt (EU)|Typ=Richtlinie|Jahr=2024|Nummer=2853|Vertrag=EU|EWR=ja|Titel=Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates|Kurztitel=Product Liability Directive/Produkthaftungsrichtlinie (neu)|Bezeichnung=PLD/PHRL|Rechtsmaterie=Binnenmarkt, Cybersicherheit|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/2853, 1|Anzuwenden=9. Dezember 2026 (Umsetzung)|Gültig=umsetzung}} | {{Infobox Rechtsakt (EU)|Typ=Richtlinie|Jahr=2024|Nummer=2853|Vertrag=EU|EWR=ja|Titel=Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates|Kurztitel=Product Liability Directive/Produkthaftungsrichtlinie (neu)|Bezeichnung=PLD/PHRL|Rechtsmaterie=Binnenmarkt, Cybersicherheit|Grundlage=AEUV, insbesondere {{Art.|114|AEUV|dejure|}}|Fundstelle=ABl L 2024/2853, 1|Anzuwenden=9. Dezember 2026 (Umsetzung)|Gültig=umsetzung}} | ||
== | == Überblick == | ||
Im Bereich der Regulierung künstlicher Intelligenz durch die EU wurden neben dem AI Act von der Kommission auch Vorschläge für spezifische Haftungsregelungen in diesem Zusammenhang vorgelegt. Dies beinhaltete zum einen den Vorschlag für eine neue '''Produkthaftungsrichtlinie''', welcher zwar auch andere Hintergründe hatte, aber durch einige Aspekte insbesondere auch auf '''künstliche Intelligenz (KI)''' abzielte, und zum anderen einen Vorschlag für eine eigene '''''AI Liability Directive'' (AILD)'''.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2, 3 und 13; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und folgende, Erwägungsgrund 3.</ref> | Im Bereich der Regulierung künstlicher Intelligenz durch die EU wurden neben dem AI Act von der Kommission auch Vorschläge für spezifische Haftungsregelungen in diesem Zusammenhang vorgelegt. Dies beinhaltete zum einen den Vorschlag für eine neue '''Produkthaftungsrichtlinie''', welcher zwar auch andere Hintergründe hatte, aber durch einige Aspekte insbesondere auch auf '''künstliche Intelligenz (KI)''' abzielte, und zum anderen einen Vorschlag für eine eigene '''''AI Liability Directive'' (AILD)'''.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2, 3 und 13; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und folgende, Erwägungsgrund 3.</ref> | ||
Während die neue Produkthaftungsrichtlinie wiederum im Wesentlichen auf harmonisierte Regelungen für eine verschuldensunabhängige (zivilrechtliche) Haftung abzielen sollte, adressierte der Vorschlag für die AILD insbesondere Beweiserleichterungen im Rahmen der (prinzipiell weiterhin) aus nationalen bzw sonstigen unionsrechtlichen Regelungen ableitbaren außervertraglichen, verschuldensabhängigen, zivilrechtlichen Haftung.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und 14, Erwägungsgrund 2; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 3, 12 und 13, Erwägungsgründe 9, 10 und | Während die neue Produkthaftungsrichtlinie wiederum im Wesentlichen auf harmonisierte Regelungen für eine verschuldensunabhängige<ref>Vgl kritisch etwa: ''European Parliamentary Research Service'', Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024, Seite 27 mit weiteren Nachweisen.</ref> (zivilrechtliche) Haftung abzielen sollte, adressierte der Vorschlag für die AILD insbesondere Beweiserleichterungen im Rahmen der (prinzipiell dennoch weiterhin) aus nationalen bzw sonstigen unionsrechtlichen Regelungen ableitbaren außervertraglichen, verschuldensabhängigen, zivilrechtlichen Haftung.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und 14, Erwägungsgrund 2; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 3, 12 und 13, Erwägungsgründe 9, 10, 23 und 24, Artikel 1.</ref> | ||
Durch diese Regelungen der AILD sollte vorrangig (Beweis-)Problematiken entgegengetreten werden, die mit gewissen Eigenschaften von KI in Verbindung gebracht wurden, wie deren Komplexität und Undurchsichtigkeit (die wiederum insgesamt als '''''Blackbox-Effekt''''' bezeichnet werden). Angesprochen wurden dabei insbesondere Nachweise für die Aspekte ''Kausalität'' und in gewisser Hinsicht auch ''Verschulden.''<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 1, 2, 13, 15, 16, Erwägungsgründe 22 und 28, Artikel 3(5).</ref> Den Erläuterungen in der Begründung des Vorschlags zufolge wurden in dem Zusammenhang verschiedene Optionen abgewogen und insbesondere die Statuierung einer eigenen (verschuldensunabhängigen) Haftung für KI vorerst verworfen, was allerdings demnach nach einer gewissen Zeit noch einmal evaluiert werden sollte (siehe im Detail Artikel 5 Vorschlag AILD).<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 5 und folgende, 17.</ref> | |||
Beide Vorschläge zielten auf Richtlinien ab, was insbesondere bedeutet, dass diese prinzipiell zunächst durch die Mitgliedstaaten in nationales Recht umgesetzt werden müssten, um Geltung zu erlangen. Allerdings sind die jeweiligen Gesetzgebungsverfahren sehr unterschiedlich verlaufen. Die neue Produkthaftungsrichtlinie ist mittlerweile im Amtsblatt der EU veröffentlicht worden<ref>Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024.</ref> und prinzipiell in Kraft getreten, während das Gesetzgebungsverfahren für die AILD aufgeschoben wurde und | Im Rahmen der neuen Produkthaftungsrichtlinie sollte nach umfassenden Unklarheiten und potenziellen Regelungslücken<ref name=":0">Vgl etwa Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seite 1; ''European Parliamentary Research Service'', Artificial intelligence liability directive, PE 739.342, February 2023, Seite 3; für Österreich etwa: ''Larcher'', Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130 (Seiten 133, 134); für Deutschland etwa: ''Dötsch'', Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023), insbesondere Seiten 276 und folgende; ''Joggerst/Wendt'', Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13.</ref> in diesem Zusammenhang nunmehr Software (und damit auch KI) explizit in den Produktbegriff aufgenommen werden. Darüber hinaus zielen auch gewisse Aspekte der neuen Produkthaftungsregelungen mehr oder weniger spezifisch auf KI bzw deren Besonderheiten ab.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 6, Erwägungsgrund 12.</ref> | ||
Beide Vorschläge zielten auf Richtlinien ab, was insbesondere bedeutet, dass diese prinzipiell zunächst durch die Mitgliedstaaten in nationales Recht umgesetzt werden müssten, um Geltung zu erlangen. Allerdings sind die jeweiligen Gesetzgebungsverfahren sehr unterschiedlich verlaufen. Die neue Produkthaftungsrichtlinie ist mittlerweile im Amtsblatt der EU veröffentlicht worden<ref>Siehe: Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024.</ref> und prinzipiell in Kraft getreten, während das Gesetzgebungsverfahren für die AILD offenbar aufgeschoben wurde und zwischenzeitlich diverse Änderungen des Vorschlags diskutiert wurden. Stand Mitte Februar 2025 hat die Kommission den Vorschlag für die AILD offenbar verworfen. Siehe im Detail jeweils unter '''[[KI-Haftungsregelungen#Vorschlag für AI Liability Directive|Vorschlag für AI Liability Directive]]''' bzw '''[[KI-Haftungsregelungen#Produkhaftungsrichtlinie neu|Produkthaftungsrichtlinie neu]].''' | |||
---- | ---- | ||
== Vorschlag für AI Liability Directive == | == Vorschlag für AI Liability Directive == | ||
=== | === Allgemeines und Anwendungsbereich === | ||
Der Vorschlag für eine '''AI Liability Directive (Vorschlag AILD) | Der Vorschlag für eine '''AI Liability Directive''' (im Folgenden insbesondere: Vorschlag AILD) wurde 2022 von der Kommission vorgelegt.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final; siehe zum Verfahren auch etwa https://eur-lex.europa.eu/legal-content/EN/HIS/?uri=CELEX%3A52022PC0496 (abgerufen am 18. 2. 2025).</ref> In der Folge wurde berichtet, dass der Gesetzgebungsprozess zwischenzeitlich aufgeschoben wurde, insbesondere um zunächst die gesetzgeberische Fertigstellung des AI Acts abzuwarten und dass von der Kommission nicht öffentlich ein überarbeiteter Vorschlag ausgesendet wurde, der insbesondere an den inzwischen veröffentlichten AI Act, aber zumindest mitunter auch in Bezug auf seine konkreten Regelungen, angepasst worden sein soll.<ref>Vgl Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024); ''Tom Whittaker'', EU AI Liability Directive: An Update, in: Burges Salmon blog, https://blog.burges-salmon.com/post/102jfdv/eu-ai-liability-directive-an-update<nowiki/>(abgerufen am 26. 11. 2024).</ref> Im September 2024 wurde zudem eine Studie des European Parliamentary Research Service (EPRS) publiziert, im Rahmen welcher insbesondere eine gemischte (verschuldensab- und unabhängige) Haftung diskutiert wird sowie die Ausweitung des Anwendungsbereichs der Richtlinie (etwa auf Software generell) vorgeschlagen wird.<ref>''European Parliamentary Research Service'', Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024; siehe auch Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive<nowiki/>(abgerufen am 26. 11. 2024).</ref> | ||
Im Februar 2025 wurde schließlich bekannt, dass die Kommission den Vorschlag für die AILD im Rahmen des Arbeitsprogramms '''<u>zurückgezogen</u>''' hat, da keine Einigung zu erwarten wäre.<ref>Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Commitee of the Regions, Commission work programme 2025 Moving forward together. A Bolder, Simpler, Faster Union, COM(2025) 45 final, https://commission.europa.eu/strategy-and-policy/strategy-documents/commission-work-programme/commission-work-programme-2025_en.</ref> | Im Februar 2025 wurde schließlich bekannt, dass die Kommission den Vorschlag für die AILD im Rahmen des Arbeitsprogramms '''<u>zurückgezogen</u>''' hat, da keine Einigung zu erwarten wäre.<ref>Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Commitee of the Regions, Commission work programme 2025 Moving forward together. A Bolder, Simpler, Faster Union, COM(2025) 45 final, https://commission.europa.eu/strategy-and-policy/strategy-documents/commission-work-programme/commission-work-programme-2025_en.</ref> | ||
Demnach wird im Folgenden nur auf den ursprünglichen Vorschlag der Kommission detaillierter eingegangen, der demnach jedoch erst wieder aufgegriffen werden müsste, um Relevanz zu erfahren. | Demnach wird im Folgenden nur auf den ursprünglichen Vorschlag der Kommission detaillierter eingegangen, der demnach jedoch erst wieder aufgegriffen werden müsste, um entsprechende Relevanz zu erfahren. | ||
Dieser enthielt im Wesentlichen zwei Elemente, die als Beweiserleichterungen bei der Geltendmachung von Schadenersatz im Zusammenhang mit KI dienen sollen: zum einen eine Offenlegungspflicht für bestimmte KI-Systeme und zum anderen eine Kausalitätsvermutung im Zusammenhang mit KI-Systemen | Dieser enthielt im Wesentlichen zwei Elemente, die als Beweiserleichterungen bei der Geltendmachung von Schadenersatz im Zusammenhang mit KI dienen sollen: zum einen eine Offenlegungspflicht für bestimmte KI-Systeme und zum anderen eine Kausalitätsvermutung im Zusammenhang mit KI-Systemen im Allgemeinen.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 13-16; Grundsätzlich konnte auch die Vermutung von Sorgfaltspflichtsverstößen gemäß Artikel 3 Absatz 5 Vorschlag AILD als ein eigenes Element zur Beweiserleichterung gesehen werden, ist aber systematisch in der Bestimmung zur Offenlegungspflicht enthalten (vgl insbesondere Seiten 10 und 15 in der Begründung des Vorschlags; siehe im Detail dazu noch im Folgenden).</ref> Bereits der ursprüngliche Richtlinienvorschlag hat gewisse Begrifflichkeiten bzw Systematik (etwa hinsichtlich ''KI-Systemen'' und gewissen, mit diesen in Verbindung stehenden Akteuren) aus dem damals vorliegenden AI Act-Vorschlag<ref>Vgl insbesondere Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte, COM(2021) 206 final.</ref> übernommen, die jedoch teilweise nicht mehr jenen der veröffentlichten Version des AI Act entsprechen.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 14 sowie Erwägungsgrund 15.</ref> Dies betrifft etwa ''Nutzer'' von KI-Systemen, die in der 2024 im Amtsblatt veröffentlichten Fassung des AI Act nunmehr grundsätzlich dem ''Betreiber'' gemäß Artikel 3 Ziffer 4 AI Act entsprechen würden. | ||
Dabei ist anzumerken, dass der AI Act (in der im Amtsblatt veröffentlichten Fassung) zwar eine allgemeine Definition von ''KI-Systemen'' enthält, in der Folge jedoch insbesondere Regelungen für bestimmte Risikoklassen solcher Systeme (siehe [[Artificial Intelligence Act (AIA)]]). | Dabei ist anzumerken, dass der AI Act (in der im Amtsblatt veröffentlichten Fassung) zwar eine allgemeine Definition von ''KI-Systemen'' enthält, in der Folge jedoch insbesondere Regelungen für bestimmte Risikoklassen solcher Systeme (ansonsten auch etwa für bestimmte KI-Modelle, siehe im Detail [[Artificial Intelligence Act (AIA)]]). Im Rahmen des AI Act beziehen sich insbesondere die KI-Kompetenz gemäß Artikel 4 AI Act und die Regelungen über KI-Reallabore auf KI-Systeme im Allgemeinen und nicht auf eine bestimmte Risikoklasse. KI-Systeme, die nicht den ansonsten im AI Act adressierten Risikoklassen zuzuordnen bzw von entsprechenden (AI Act-)Regelungen erfasst sind, wären demnach jedoch zum Teil auch im Rahmen des Vorschlags zur AILD relevant gewesen. In dem Zusammenhang verweisen die Erwägungsgründe des Vorschlags zur AILD quasi darauf, dass auch bei nicht-Hochrisiko-Systemen bestimmte KI-Merkmale, wie Autonomie und Undurchsichtigkeit, zu Beweisschwierigkeiten führen könnten.<ref>Vgl insbesondere Erwägungsgründe 26 bis 28.</ref> | ||
Mit dem Richtlinienvorschlag | Mit dem Richtlinienvorschlag sollte ein '''Mindestharmonisierungsansatz''' verfolgt werden, wodurch „''es Klägern im Fall eines durch KI-Systeme verursachten Schadens''“ ermöglicht werden sollte „''sich auf günstigere Vorschriften des nationalen Rechts zu berufen“'' (Erwägungsgrund 14).<ref>Im Allgemeinen ist anzumerken, dass bei den Begrifflichkeiten des Vorschlags AILD wie auch der neuen Produkthaftungsrichtlinie im Normtext keine gendergerechte Sprache verwendet wird. Daher kann, soweit auf diese Begrifflichkeiten Bezug genommen wird, auch hier keine gendergerechte Sprache verwendet werden. Abgesehen davon wird dies jedenfalls entsprechend berücksichtigt.</ref> Weiters sollte die vorgeschlagene Richtlinie quasi nur bestimmte ergänzende Regelungen für die zivilrechtliche (nicht strafrechtliche), verschuldensabhängige, außervertragliche Haftung für durch KI-Systeme verursachten Schäden in Bezug auf die bestehenden Haftungssysteme einführen.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13, Erwägungsgründe 10, 20-24, Artikel 1.</ref> Nach Erwägungsgrund 24 Vorschlag AILD sind dabei "[i]''n Bereichen, die nicht durch das Unionsrecht harmonisiert sind,'' [...] ''weiterhin nationale Rechtsvorschriften'' [...]" einschlägig. | ||
Auch ''Beklagte'' und ''Kläger'' wurden im Richtlinienvorschlag definiert (Artikel 2 Ziffern 6 bis 8 Vorschlag AILD). Beklagte | In Bezug auf entsprechende Verschuldenshaftungen hält Erwägungsgrund 3 im Allgemeinen auch Folgendes fest, was gewissermaßen als Ausgangsbasis für die Regelungen des Vorschlags zur AILD zu sehen ist: <blockquote>„''Wenn ein Geschädigter für einen entstandenen Schaden Schadensersatz verlangt, so muss er '''nach den allgemeinen Vorschriften der Mitgliedstaaten für die verschuldensabhängige Haftung''' in der Regel eine '''fahrlässige oder vorsätzliche schädigende Handlung oder Unterlassung („Verschulden“)''' der Person, die potenziell für diesen Schaden haftbar ist, sowie einen '''ursächlichen Zusammenhang zwischen diesem Verschulden und dem betreffenden Schaden''' nachweisen.''“ (Hervorhebungen hinzugefügt)</blockquote>Der eingeschränkte Anwendungsbereich wurde konkret insbesondere durch Artikel 1 sowie die Definition von Schadenersatzansprüchen, auf die sich die Richtlinie beziehen sollte (Artikel 2 Ziffer 5 Vorschlag AILD), umgesetzt. Diese Definition umfasste demnach: „''einen außervertraglichen verschuldensabhängigen zivilrechtlichen Anspruch auf Ersatz des Schadens, der durch ein Ergebnis eines KI-Systems oder aber dadurch, dass dieses System das von ihm erwartete Ergebnis nicht hervorgebracht hat, verursacht wurde''“. | ||
Auch ''Beklagte'' und ''Kläger'' bzw ''potenzielle Kläger'' wurden im Richtlinienvorschlag entsprechend definiert (Artikel 2 Ziffern 6 bis 8 Vorschlag AILD). ''Beklagte'' sollten demnach Personen sein, „''gegen die ein Schadensersatzanspruch geltend gemacht wird''“ (Artikel 2 Ziffer 8 Vorschlag AILD). Die Definition von Kernbegriffen, wie ''Verschulden,'' bzw die Regelung von allgemeinen Aspekten der Haftung sollte dabei aber prinzipiell (anderen) Vorschriften des Unions- bzw nationalen Rechts überlassen werden.<ref>Siehe insbesondere Artikel 1(3)(d), Erwägungsgründe 10 und 22; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.</ref> | |||
=== Kausalitätsvermutung (Artikel 4) === | === Kausalitätsvermutung (Artikel 4) === | ||
Artikel 4 | Artikel 4 sollte als einen zentralen Aspekt der Richtlinie eine widerlegbare Kausalitätsvermutung regeln. Unter gewissen Voraussetzungen sollte dadurch zwecks der Anwendung von Haftungsvorschriften in Bezug auf erfasste Schadenersatzansprüche ein Kausalzusammenhang „''zwischen dem Verschulden des Beklagten und dem vom KI-System hervorgebrachten Ergebnis oder aber der Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat''“ vermutet werden (Artikel 4 Absatz 1 Vorschlag AILD). | ||
Die Voraussetzungen | Die wesentlichen Voraussetzungen sollten dabei prinzipiell sein, dass der ''Kläger'' nachweist, "''dass ein Verschulden seitens des Beklagten oder einer Person, für deren Verhalten der Beklagte verantwortlich ist, vorliegt, da gegen'' [...]" gewisse einschlägige Sorgfaltspflichten verstoßen wurde (Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD), sowie dass das Ergebnis oder Nicht-Ergebnis des KI-Systems zu dem entsprechenden Schaden geführt hat (Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Unter "''Sorgfaltspflicht"'' verstand Artikel 2 Ziffer 9 Vorschlag AILD zunächst prinzipiell "''einen im nationalen Recht oder im Unionsrecht festgelegten Verhaltensmaßstab, der einzuhalten ist, um eine Beeinträchtigung von im nationalen Recht oder im Unionsrecht anerkannten Rechtsgütern, einschließlich Leben, körperlicher Unversehrtheit, Eigentum und Wahrung der Grundrechte, zu vermeiden''". Siehe zu entsprechenden Einschränkungen sogleich. | ||
Im Kontext von Hochrisiko-KI sollte bei einem Verstoß gegen eine Anordnung zur Offenlegung oder Sicherung von entsprechenden Beweismitteln gemäß Artikel 3 Absatz 5 Vorschlag AILD ein Sorgfaltspflichtverstoß auch vermutet werden können (siehe [[KI-Haftungsregelungen#Offenlegungspflicht (Artikel 3)|Offenlegungspflicht (Artikel 3)]]), was wiederum auch für die Kausalitätsvermutung einschlägig gewesen wäre (siehe Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD). Dabei ist allerdings nicht ganz klar, ob nur der (objektive) Pflichtenverstoß oder auch ein (subjektives) Verschulden vermutet werden sollte, weil sich Artikel 3 Absatz 5 (nur) auf einen '''Verstoß gegen einschlägige Sorgfaltspflichten''' bezieht, während Artikel 4 Absatz 1 Buchstabe a davon gesprochen hat, dass "''gemäß Artikel 3 Absatz 5''" vermutet werden soll, "''dass ein '''Verschulden''''' [...] ''vorliegt''".<ref>Hervorhebungen hinzugefügt. Zur Unterscheidung von (objektivem) Sorgfaltsmaßstab(/Sorgfaltsverstoß) und (subjektivem) Verschulden vgl national etwa zur Haftung der GmbH-Geschäftsführung: OGH 3. 8. 2021, 8 ObA 109/20t, insbesondere Randziffer 80 mit weiteren Nachweisen; ''Feltl/Told'' in ''Gruber/Harrer'' (Hrsg), GmbHG² (2018) § 25 Rz 120.</ref> | |||
Für die Kausalitätsvermutung musste zudem auf „''Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden"'' können, ''"dass das Verschulden das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat''“ (Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD). | Für die Anwendbarkeit der Kausalitätsvermutung musste zudem auf „''der'' ''Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden"'' können, ''"dass das Verschulden das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat''“ (Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD). Nach Erwägungsgrund 25 Vorschlag AILD sollte dies etwa im Fall gegeben sein, dass das "''Verschulden in einer Verletzung einer Sorgfaltspflicht in Bezug auf die Begrenzung des Betriebsbereichs des KI-Systems besteht und der Schaden außerhalb des Betriebsbereichs eingetreten ist''". Demgegenüber wäre die Voraussetzung demnach "''bei einem Verstoß gegen eine Verpflichtung, bestimmte Dokumente bei einer bestimmten Behörde einzureichen oder sich bei einer bestimmten Behörde zu registrieren, obwohl dies für die betreffende bestimmte Tätigkeit vorgesehen oder sogar ausdrücklich für den Betrieb eines KI-Systems gelten könnte,'' [...]" nicht erfüllt. | ||
Die wesentliche Konsequenz der Kausalitätsvermutung wäre demnach eine gewisse '''gedankliche Verlagerung des (Nicht-)Resultats einer KI hin zu einer entsprechenden Handlung oder Unterlassung einer Person''' gewesen. | Die wesentliche Konsequenz der Kausalitätsvermutung wäre demnach eine gewisse '''gedankliche Verlagerung des (Nicht-)Resultats einer KI hin zu einer entsprechenden Handlung oder Unterlassung einer Person (für die Zwecke der einschlägigen Haftung dieser Person)''' gewesen. | ||
Für die Anwendung der Vermutung | Für die Anwendung der Vermutung waren allerdings noch weitere Einschränkungen vorgesehen: | ||
* | * Hinsichtlich der dabei relevanten Sorgfaltspflichten sollten im Allgemeinen nur solche erfasst sein, '''deren unmittelbarer Zweck die Verhinderung des eingetretenen Schadens''' '''ist'''. | ||
* Hinsichtlich Hochrisiko-KI-Systemen sollten jedenfalls | * Hinsichtlich Hochrisiko-KI-Systemen, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, sollten jedenfalls bezüglich '''deren Anbietern und Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen,''' dabei nur '''bestimmte Anforderungen nach dem AI Act'''(-Vorschlag) in Frage kommen, wie etwa die Konzeption und Entwicklung gemäß den Transparenzanforderungen des AI Act(-Vorschlags)<ref>Artikel 4 Absatz 2 Buchstabe b Vorschlag AILD.</ref>. Zudem sollten dabei "''die im Rahmen des Risikomanagementsystems unternommenen Schritte und dessen Ergebnisse"'' Berücksichtigung finden (jeweils Artikel 4 Absatz 2 Vorschlag AILD; siehe auch Erwägungsgrund 26 Vorschlag AILD). | ||
* In Hinblick auf Nutzer von Hochrisiko-KI war prinzipiell eine ähnliche Regelung vorgesehen (Artikel 4 Absatz 3 Vorschlag AILD). Allerdings ging aus dieser nicht eindeutig hervor, | * In Hinblick auf Nutzer von Hochrisiko-KI, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, war prinzipiell eine ähnliche Regelung vorgesehen (Artikel 4 Absatz 3 Vorschlag AILD). Allerdings ging aus dieser nicht so eindeutig hervor, inwieweit die entsprechende Aufzählung von Anforderungen nach dem AI Act-Vorschlag, deren Verletzung für die Kausalitätsvermutung einschlägig wäre, abschließend sein sollte, insbesondere weil dabei kein „''nur''“ (oder eine ähnliche Klarstellung) verwendet wurde. zieht man die Erwägungsgründe (insbesondere 24 und 26) des Vorschlags AILD zur Auslegung heran, sollte dieser Regelungsvorschlag aber wohl so zu verstehen sein, dass neben den aufgezählten Pflichten gemäß dem AI Act(-Vorschlag) prinzipiell auch “''andere im Unionsrecht oder im nationalen Recht festgelegte Sorgfaltspflichten''” für solche Nutzer in Frage gekommen wären, im Hinblick auf den AI Act-Vorschlag aber nur die aufgezählten.<ref>Vgl Erwägungsgrund 26 Vorschlag AILD, worin unter anderem festgehalten wird, dass die Richtlinie Verschulden derartiger Nutzer erfassen sollte, ”''wenn das betreffende Verschulden in der Nichteinhaltung '''bestimmter spezifischer Anforderungen'''”'' gemäß AI Act(-Vorschlag) bestünde; Hervorhebungen hinzugefügt.</ref> | ||
* Sofern | * Sofern das betreffende KI-System durch den ''Beklagten'' „''im Rahmen einer persönlichen nicht beruflichen Tätigkeit verwendet''“ wird, wäre die Vermutung im Allgemeinen nur dann anwendbar gewesen, „''wenn der Beklagte die Betriebsbedingungen des KI-Systems wesentlich verändert hat oder wenn er verpflichtet und in der Lage war, die Betriebsbedingungen des KI-Systems festzulegen, und dies unterlassen hat''“ (Artikel 4 Absatz 6 Vorschlag AILD). | ||
Die Vermutung hätte zudem vom Beklagten widerlegt werden können (Artikel 4 Absatz 7 Vorschlag AILD). | Die Vermutung hätte zudem vom ''Beklagten'' widerlegt werden können (Artikel 4 Absatz 7 Vorschlag AILD). | ||
=== Offenlegungspflicht (Artikel 3) === | === Offenlegungspflicht (Artikel 3) === | ||
Die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD sollte sich auf einschlägige Beweismittel zu | Die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD sollte sich auf '''einschlägige Beweismittel''' zu bestimmten '''Hochrisiko-KI-Systemen''', die einen Schaden verursacht haben sollen, beziehen, die wiederum Anbietern, Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen, oder Nutzern vorliegen (Artikel 3 Absatz 1 Vorschlag AILD). In Hinblick auf die Beschränkung auf Hochrisiko-KI-Systeme ist insbesondere auf Erwägungsgrund 18 des Vorschlags AILD zu verweisen. | ||
Dabei sollten nämlich diejenigen verpflichtet werden, die relevante Beweismittel – etwa aufgrund entsprechender Dokumentationspflichten gemäß AI Act – innehaben (Erwägungsgrund 16 Vorschlag AILD). | Dabei sollten nämlich '''diejenigen zur Offenlegung verpflichtet''' werden, die relevante Beweismittel – etwa aufgrund entsprechender Dokumentationspflichten gemäß AI Act(-Vorschlag) – '''innehaben''' (vgl Erwägungsgrund 16 Vorschlag AILD). Erwägungsgrund 16 Vorschlag AILD hielt zum Hintergrund zudem fest: "''Der Zugang zu Informationen über bestimmte Hochrisiko-KI-Systeme, bei denen der Verdacht besteht, dass sie einen Schaden verursacht haben, ist ein wichtiger Faktor für die Feststellung, ob Schadensersatzansprüche geltend gemacht werden können, und für die Begründung derselben''". | ||
Zur Geltendmachung berechtigt – durch Antrag bei | Zur Geltendmachung berechtigt – durch Antrag bei den entsprechenden nationalen Gerichten – wären gemäß Artikel 3 Absatz 1 Vorschlag AILD grundsätzlich entsprechende ''Kläger'' und ''potenzielle Kläger'' (vgl erneut Artikel 2 Ziffern 6 und 7 Vorschlag AILD) gewesen. Dabei hätte aber der Unterschied bestanden, dass ''potenzielle Kläger'' nur dann erfasst gewesen wären, wenn sie die betreffende Person '''''zuvor''''' vergeblich zur Offenlegung aufgefordert haben.<ref>Das Wort "''zuvor''" bezog sich dabei wohl eher auf den Antrag als auf die schlussendliche gerichtliche Anordnung (vgl Artikel 3 Absatz 1 Vorschlag AILD, etwa auch in englischer Sprachfassung).</ref> Weiters müssten diese „[z]''ur Stützung seines Antrags'' [...] ''die Plausibilität'' [...] [ihres] ''Schadensersatzanspruchs durch die Vorlage von Tatsachen und Beweismitteln ausreichend belegen''“ (jeweils Artikel 3 Absatz 1 Vorschlag AILD), während (tatsächliche) ''Kläger'' als Voraussetzung für die gerichtliche Anordnung in Verbindung mit einem einschlägigen Schadenersatzanspruch „''alle angemessenen Anstrengungen unternommen''“ haben müssten, „''die einschlägigen Beweismittel vom Beklagten zu beschaffen''“ (Artikel 3 Absatz 2 Vorschlag AILD). | ||
Erwägungsgrund 17 Vorschlag AILD hielt in diesem Kontext auch fest: „''Die Anordnung der Offenlegung sollte zu einer Vermeidung unnötiger Rechtsstreitigkeiten und Kosten, die durch ungerechtfertigte oder wahrscheinlich erfolglose Ansprüche verursacht werden, für die jeweiligen Prozessparteien führen''“. | Erwägungsgrund 17 Vorschlag AILD hielt in diesem Kontext (tendenziell im Zusammenhang mit ''potenziellen Klägern'') auch fest: „''Die Anordnung der Offenlegung sollte zu einer Vermeidung unnötiger Rechtsstreitigkeiten und Kosten, die durch ungerechtfertigte oder wahrscheinlich erfolglose Ansprüche verursacht werden, für die jeweiligen Prozessparteien führen''“. | ||
Die Offenlegung sollte schließlich durch nationale Gericht angeordnet werden. | Die Offenlegung sollte schließlich durch die entsprechenden nationale Gericht angeordnet werden.<ref>Vgl insbesondere Artikel 3 und Erwägungsgrund 19 Vorschlag AILD.</ref> Dabei wären gemäß die '''Erforderlichkeit und Verhältnismäßigkeit zu beachten''' gewesen, wobei die Interessen aller Parteien (inklusive betroffener Dritter), wie insbesondere in Hinblick auf '''Geschäftsgeheimnisse''' im Sinne des Artikels 2 Absatz 1 der Richtlinie (EU) 2016/943, zu berücksichtigen gewesen wären (siehe im Detail Artikel 3 Absatz 4 Vorschlag AILD).<ref>Zum Hintergrund ist auf insbesondere auf Erwägungsgrund 19 Vorschlag AILD zu verweisen.</ref> | ||
Dabei sollten die Mitgliedstaaten | Dabei sollten die Mitgliedstaaten den jeweiligen nationalen Gerichten Befugnisse für die Anordnung spezifischer Maßnahmen zur entsprechenden '''Beweismittelsicherung''' zugestehen (Artikel 3 Absatz 3 Vorschlag AILD) und jeweils '''angemessene Rechtsbehelfe gegen Anordnungen''' zur Offenlegung oder Beweismittelsicherung für die Personen vorsehen, gegen die diese ergehen (Artikel 3 Absatz 4 letzter Satz). | ||
Für den Fall, dass ein entsprechender Beklagter einer | Für den Fall, dass ein entsprechender ''Beklagter'' "''im Rahmen eines Schadensersatzanspruchs''" einer entsprechenden gerichtlichen Anordnung zur Beweismitteloffenlegung oder -sicherung nicht nachkommt, ordnete Artikel 3 Absatz 5 Vorschlag AILD schließlich die '''Vermutung''' für das jeweilige Gericht an, „''dass der Beklagte '''gegen seine einschlägige Sorgfaltspflicht verstößt'''''" (Hervorhebungen hinzugefügt). Das sollte ''insbesondere'' dann schlagend werden, wenn die entsprechend geforderten Beweismittel Umstände rund um die Verletzung jener AI Act-Anforderungen durch Nutzer bzw Anbieter und Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen, im Zusammenhang mit Hochrisiko-KI nachweisen sollen, die gemäß Artikel 4 Absatz 2 bzw 3 für die Kausalitätsvermutung nach dem Vorschlag AILD relevant wären. Vgl zu dieser Vermutung auch schon oben unter [[KI-Haftungsregelungen#Kausalitätsvermutung (Artikel 4)|Kausalitätsvermutung (Artikel 4)]]. | ||
---- | ---- | ||
== Produkthaftungsrichtlinie neu == | == Produkthaftungsrichtlinie neu == | ||
=== | === Allgemeines und Übergangsbestimmungen === | ||
Neben dem Vorschlag zur AILD enthielt auch schon der Vorschlag für eine neue Produkthaftungsrichtlinie Aspekte, die für | Neben dem Vorschlag zur AILD enthielt auch schon der Vorschlag für eine neue Produkthaftungsrichtlinie Aspekte, die für die Haftung im Zusammenhang mit KI relevant sind.<ref>Siehe grundlegend Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6.</ref> Dieser Vorschlag, der auf eine Ersetzung der aus den 1980ern stammenden, alten Produkthaftungsrichtlinie<ref>Richtlinie 85/374/EWG des Rates vom 25. Juli 1985 zur Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Haftung für fehlerhafte Produkte, ABl L 1985/210, 29.</ref> abzielte, wurde prinzipiell als Paket mit dem Vorschlag für die AILD schon 2022 von der Kommission vorgelegt.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 5 und 8; vgl auch Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2 und 3.</ref> | ||
Im Gegensatz zur AILD wurde die neue Produkthaftungsrichtlinie (im Folgenden: PHRL neu) aber mittlerweile bereits im Amtsblatt veröffentlicht worden und 2024 prinzipiell in Kraft getreten.<ref>Siehe Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024 (insbesondere Artikel 23).</ref> | |||
Die PHRL neu gilt allerdings erst für Produkte, die '''nach dem 9. 12. 2026''' in Verkehr gebracht oder in Betrieb genommen werden (Artikel 2 Absatz 1 PHRL neu). Die Mitgliedstaaten müssen diese demnach '''bis zum 9. 12. 2026''' in nationales Recht umsetzen (Artikel 22 Absatz 1 PHRL neu). '''Mit Wirkung vom 9. 12. 2026''' wird grundsätzlich auch die alte Produkthaftungsrichtlinie aufgehoben, wenngleich diese auch weiterhin für Produkte gelten soll, die "''vor diesem Zeitpunkt in Verkehr gebracht oder in Betrieb genommen wurden''" (Artikel 21 PHRL neu). | |||
Schon die alte Produkthaftungsrichtlinie regelt prinzipiell eine verschuldensunabhängige Haftung im Zusammenhang mit fehlerhaften Produkten für bestimmte davon zu unterscheidende Schäden, wobei die Haftung vorrangig den Produkthersteller trifft.<ref>Vgl ''Handig'', Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196).</ref> Dies ist im Wesentlichen auch Kern der PHRL neu, sie bringt allerdings auch eine Reihe von Neuerungen bzw Adaptionen mit sich, die insbesondere auch KI betreffen. Neben ''Produkten im digitalen Zeitalter'' sollte die PHRL neu insbesondere auch etwa die Kreislaufwirtschaft berücksichtigen.<ref>Vgl insgesamt Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 2, 6, 11 und 12, Erwägungsgrund 2, Artikel 1; vgl zum Entwurfsstadium auch ''Handig'', Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107.</ref> | |||
=== Neuer Produktbegriff und grundlegender Regelungsgegenstand === | |||
Im Rahmen der alten Rechtslage gab es umfassende Unklarheiten (bzw potenzielle Regelungslücken) in Hinblick darauf, inwieweit Software vom Produktbegriff erfasst ist.<ref name=":0" /> Daraufhin sollte '''Software''' (bzw insbesondere auch '''KI''') in den Produktbegriff aufgenommen werden.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 6, 9, 11, 12 und 14, Erwägungsgrund 12, Artikel 4 Ziffer 1.</ref> Der schlussendlich beschlossene, neue Produktbegriff umfasst im Detail jetzt '''alle beweglichen Sachen''', '''selbst wenn diese in andere bewegliche oder unbewegliche Sachen integriert''' oder '''mit diesen verbunden''' sind, und explizit auch '''Software''', Elektrizität, digitale Konstruktionsunterlagen und Rohstoffe (Artikel 4 Ziffer 1 PHRL neu). Nach Erwägungsgrund 13 PHRL neu sind unter ''Software'' auch etwa '''KI-Systeme''' zu verstehen.<ref>Vgl auch Erwägungsgrund 3 PHRL neu und zum Entwurfsstadium ''Handig'', Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (197); in Erwägungsgrund 13 PHRL neu wird zudem auf die ''Anbieter von KI-Systemen'' gemäß AI Act Bezug genommen, weshalb davon auszugehen sein wird, dass mit ''KI-Systemen'' wohl jene im Sinne des AI Act (Artikel 3 Ziffer 1 AI Act) gemeint sind. </ref> Mit der Adressierung von ''Software'' wurde dabei wohl Technologieneutralität bezweckt.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 14.</ref> | |||
Trotz der Neufassung des Produktbegriffs ergeben sich allerdings Auslegungsfragen hinsichtlich der Anwendbarkeit der PHRL neu. So soll im Rahmen der PHRL neu in gewisser Weise prinzipiell auch für '''''Komponenten''''' gehaftet werden (vgl im Detail insbesondere Artikel 8 Absatz 1, Artikel 11 PHRL neu), worunter körperliche oder nicht-körperliche Gegenstände, Rohstoffe oder verbundene Dienste verstanden werden, die in ein Produkt integriert oder damit verbunden sind (Artikel 4 Ziffer 4 PHRL neu). Mit '''''verbundenen Diensten''''' sind digitale Dienste gemeint, welche derart in ein Produkt integriert oder mit diesem verbunden sind, dass dieses ohne sie (eine oder mehrere seiner) Funktionen nicht erfüllen könnte (Artikel 4 Ziffer 3 PHRL neu). Dies ist vor allem deswegen relevant, weil nach Erwägungsgrund 17 PHRL neu prinzipiell '''Dienstleistungen''' per se nicht von der Richtlinie umfasst sein sollten. Daher könnten sich in der Folge voraussichtlich schwierige Abgrenzungsfragen, insbesondere in Hinblick auf tatbestandsmäßige potenzielle Auswirkungen auf die Funktionsweise des Produkts, stellen.<ref>Vgl zum Entwurfsstadium im Zusammenhang mit ''digitalisierten Wissensinhalten'' auch ''Handig'', Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196 f); vgl grundlegend dazu insbesondere auch Erwägungsgrund 17 PHRL neu.</ref> | |||
Zudem wird in Erwägungsgrund 13 PHRL neu in Bezug auf Software wiederum angemerkt, dass diese „''unabhängig von der Art ihrer Bereitstellung oder Nutzung''“, demnach „''unabhängig davon, ob die Software auf einem Gerät gespeichert oder über ein Kommunikationsnetz oder Cloud-Technologien abgerufen oder durch ein Software-as-a-Service-Modell bereitgestellt wird''“ als ''Produkt'' erfasst sein sollte. Daraus könnten sich demnach wiederum Abgrenzungsfragen in Hinblick auf '''Dienstleistungen''' ergeben, die mit Software verbunden sind. Außerdem sollen ''digitale Dateien'' laut Erwägungsgrund 16 PHRL neu per se keine ''Produkte'' darstellen (abgesehen von gewissen ''digitale Konstruktionsunterlagen''). Weiters sollen laut Erwägungsgrund 13 PHRL neu auch ''Informationen'' nicht als ''Produkt'' zu sehen sein. Die Produkthaftungsregelungen sollten demnach „''nicht für den Inhalt digitaler Dateien wie Mediendateien oder E-Books oder den reinen Quellcode von Software gelten''“. In dem Zusammenhang scheint in der Folge aber überlegenswert, inwieweit das auch '''Komponenten''' betreffen soll, also inwiefern etwa Sourcecode, oder auch Trainingsdaten für eine KI, eine (fehlerhafte) Komponente eines Softwareprodukts darstellen könnten.<ref>Dabei sollte wohl insbesondere die Frage zentral sein, inwieweit ein quasi funktional essentieller ''nicht-körperlicher Gegenstand'' vorliegt, wobei Erwägungsgrund 20 PHRL neu implizit etwa Daten, wie ursprünglich auf einer Festplatte gespeicherte digitale Dateien, als ''nicht-körperliche Vermögensgegenstände'' sieht; vgl zum Entwurfsstadium im Zusammenhang mit digitalisierten Wissensinhalten erneut auch ''Handig'', Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196 f).</ref> | |||
Eine wichtige Voraussetzung für die Haftung ist die '''Fehlerhaftigkeit''' (eines Produkts bzw einer Komponente), die in Artikel 7 PHRL neu prinzipiell damit umschrieben wird, dass das Produkt "''nicht die Sicherheit bietet''", die Personen erwarten dürfen oder die von Unions- oder nationalem Recht gefordert wird. Artikel 7 Absatz 2 PHRL neu regelt in der Folge, dass sämtliche Umstände bei dieser Beurteilung Berücksichtigung finden müssen und | Eine wichtige Voraussetzung für die Haftung ist die '''Fehlerhaftigkeit''' (eines Produkts bzw einer Komponente<ref>Vgl im Detail Artikeln 5, 6, 7 und 8 PHRL neu, wobei insbesondere anzumerken ist, dass der Wortlaut von Artikel 5, worin der Schadenersatzanspruch grundlegend statuiert wird, nur auf ''fehlerhafte Produkte'' und nicht auch ''fehlerhafte Komponenten'' Bezug nimmt.</ref>), die in Artikel 7 PHRL neu in Hinblick auf Produkte<ref>''Komponenten'' finden dabei wiederum grundsätzlich keine Erwähnung.</ref> prinzipiell damit umschrieben wird, dass das Produkt "''nicht die Sicherheit bietet''", die Personen erwarten dürfen oder die von Unions- oder nationalem Recht gefordert wird. Artikel 7 Absatz 2 PHRL neu regelt in der Folge, dass sämtliche Umstände bei dieser Beurteilung Berücksichtigung finden müssen und zählt dazu einige Aspekte auf, wie auch etwa die "''einschlägigen Anforderungen an die Produktsicherheit, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen"'' (Buchstabe f). Dazu ist allerdings anzumerken, dass die Fehlerhaftigkeit des Produkts '''vermutet''' werden soll, wenn der Kläger nachweist, dass das Produkt '''<u>verbindliche</u>''' '''Produktsicherheitsanforderungen''' gemäß Unions- oder nationalem Recht nicht erfüllt, sofern diese den Schutz vor dem Risiko des Schadens, den die geschädigte Person erlitten hat, gewährleisten sollen (Artikel 10 Ansatz 2 Buchstabe b PHRL neu). Siehe weiters noch unter [[KI-Haftungsregelungen#AI Act und PHRL neu|Synergien; AI Act und PHRL neu]]. | ||
Die Frage, wer welche Schäden geltend machen kann, wird insbesondere in den Artikeln 5 und 6 der PHRL neu adressiert. Demnach | Die Frage, wer welche Schäden geltend machen kann, wird insbesondere in den Artikeln 5 und 6 der PHRL neu adressiert. Demnach soll zunächst grundsätzlich „''jede natürliche Person, die einen durch ein fehlerhaftes Produkt verursachten Schaden erleidet''", einen Schadenersatzanspruch gemäß der PHRL neu haben, wobei dieser auch durch gewisse andere Personen geltend gemacht werden können soll (vgl im Detail Artikel 5 PHRL neu). Dabei sollen lediglich folgende Kategorien von Schäden grundsätzlich ersetzt werden (Artikel 6 Absatz 1 PHRL neu): | ||
* Tod oder Körperverletzung, einschließlich medizinisch anerkannter Beeinträchtigungen der psychischen Gesundheit | * Tod oder Körperverletzung, einschließlich medizinisch anerkannter Beeinträchtigungen der psychischen Gesundheit | ||
Zeile 93: | Zeile 99: | ||
* Vernichtung oder Beschädigung von Daten, die nicht für berufliche Zwecke verwendet werden | * Vernichtung oder Beschädigung von Daten, die nicht für berufliche Zwecke verwendet werden | ||
Dabei sind insbesondere sich daraus ergebende Vermögensschäden abgedeckt (Artikel 6 Absatz 2 erster Satz PHRL neu). Zudem sollen aber auch entsprechende immaterielle Schäden abgedeckt werden, "''soweit für Schäden dieser Art nach nationalem Recht eine Entschädigung verlangt werden kann''" (Artikel 6 Absatz 2 zweiter Satz PHRL neu).Die PHRL neu enthält im Gegensatz zur alten Produkthaftungsrichtlinie auch keinen Selbstbehalt für Sachschäden mehr.<ref>Vgl zum Entwurfsstadium ''Handig'', Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (197) sowie Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seiten 1 und 10.</ref> | |||
Welcher Wirtschaftsakteur in weiterer Folge für entsprechende Schäden haftbar gemacht werden kann, wird im Detail vor allem in Artikel 8 PHRL neu geregelt. Dies betrifft insbesondere die Hersteller der fehlerhaften Produkte und die Hersteller von fehlerhaften Komponenten, die "''unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden''"<ref>Zur Definition des Begriffs „''Kontrolle des Herstellers''“ siehe Artikel 4 Z 5 PHRL neu.</ref> wurden und dessen Fehlerhaftigkeit verursacht haben (Artikel 8 Absatz 1 Unterabsatz 1 Buchstaben a und b PHRL neu). Zudem soll die Haftung des Produktherstellers nach Artikel 8 Absatz 1 Unterabsatz 1 Buchstabe a PHRL neu auch Schäden umfassen, "''die durch eine fehlerhafte Komponente verursacht werden, wenn diese unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden wurde''".<ref>Siehe Artikel 8 Absatz 1 Unterabsatz 2 PHRL neu, wobei allerdings erneut auch auf die Formulierung von Artikel 5 PHRL neu hinzuweisen ist.</ref> Daneben sollen unter Umständen auch weitere Personen in Haftung genommen werden können (siehe im Detail Artikel 8 Absatz 2 und folgende PHRL neu). | |||
Die verschiedenen Akteure werden grundsätzlich in Artikel 4 PHRL neu definiert, so etwa der ''Hersteller'' in Ziffer 10<ref>Dabei wird jedoch wiederum nur auf ''Produkte'' und nicht auf ''Komponenten'' explizit Bezug genommen.</ref>. Im Übrigen sollen nach Erwägungsgrund 13 PHRL neu etwa die ''Anbieter von KI-Systemen'' im Sinne des AI Act als ''Hersteller'' gelten. | |||
=== Für KI spezifisch relevante | === Für KI spezifisch relevante Regelungen === | ||
Die PHRL neu enthält auch | Die PHRL neu enthält auch im Zusammenhang mit KI spezifisch relevante Regelungen (abseits des entsprechend konkretisierten Anwendungsbereichs). In Verbindung mit KI besonders relevant sind nach der Begründung des Richtlinienvorschlags und den Erwägungsgründen der PHRL neu folgend insbesondere bestimmte Beweiserleichterungen gemäß Artikel 10 PHRL neu und gewisse Haftungsszenarien, die sich aus Artikel 11 PHRL neu ergeben.<ref>Vgl Erwägungsgründe 40, 48 und 50 PHRL neu; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6.</ref> | ||
Prinzipiell | '''<u>spezifisch relevante Beweiserleichterungen gemäß Artikel 10 PHRL neu:</u>''' Prinzipiell soll der Kläger die Fehlerhaftigkeit des Produkts, den erlittenen Schaden und den Kausalzusammenhang zwischen jener Fehlerhaftigkeit und jenem Schaden zu beweisen haben (Artikel 10 Absatz 1 PHRL neu). In Artikel 10 Absatz 4 PHRL neu sind allerdings gewisse Beweiserleichterungen insbesondere in Hinblick auf '''''komplexe Fälle''''' geregelt worden, zu denen nach der Begründung des Richtlinienvorschlags auch "''bestimmte Fälle im Zusammenhang mit KI-Systemen gehören könnten''", was sich zudem in den Erwägungsgründen der PHRL neu widerspiegelt.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6; Erwägungsgrund 48 PHRL neu.</ref> Voraussetzung dafür soll nunmehr einerseits sein, dass der Kläger "''insbesondere aufgrund der technischen oder wissenschaftlichen Komplexität"'' übermäßige Schwierigkeiten damit hat, „''die Fehlerhaftigkeit des Produkts oder den ursächlichen Zusammenhang zwischen dessen Fehlerhaftigkeit und dem Schaden oder beides zu beweisen'' [...]" (Artikel 10 Absatz 4 Buchstabe a PHRL neu). Andererseits müsste der Kläger nachgewiesen haben, „''dass das Produkt fehlerhaft ist oder dass ein ursächlicher Zusammenhang zwischen der Fehlerhaftigkeit des Produkts und dem Schaden besteht, oder beides''". Zudem müssten diese Voraussetzungen trotz der Offenlegung von Beweismitteln gemäß Artikel 9 PHRL neu bzw "''unter Berücksichtigung aller relevanten Umstände des Falles''" vorliegen (Artikel 10 Absatz 4 PHRL neu). Erwägungsgrund 48 PHRL neu nennt als Kriterien für die '''technische oder wissenschaftliche Komplexität''' beispielsweise "'''''die Komplexität der verwendeten Technologie'''''" (und dabei etwa '''maschinelles Lernen''') und die "'''''die Komplexität der vom Kläger zu analysierenden Informationen und Daten und die Komplexität des ursächlichen Zusammenhang'''''"<ref>Hervorhebungen jeweils hinzugefügt.</ref>, was auch mit der potenziell geforderten '''''Erläuterung der''''' '''''Funktionsweise von KI-Systemen''''' in Verbindung gebracht wird. Die Vermutungen und Annahmen nach Artikel 10 Absätze 2-4 PHRL neu sollen schließlich gemäß dessen Absatz 5 vom Beklagten widerlegbar sein. | ||
Artikel 11 PHRL neu enthält demgegenüber im Allgemeinen Regelungen darüber, wann sich die | '''<u>spezifisch relevante Haftungsszenarien gemäß Artikel 11 PHRL neu:</u>''' Artikel 11 PHRL neu enthält demgegenüber im Allgemeinen Regelungen darüber, wann sich jene Wirtschaftsakteure, die nach Artikel 8 PHRL prinzipiell haftbar sein sollen, jeweils von einer Haftung freibeweisen können sollen. Dies betrifft unter anderem den Fall, dass der betreffende Wirtschaftsakteur beweist, "''dass es wahrscheinlich ist, dass die Fehlerhaftigkeit, die den Schaden verursacht hat, zum Zeitpunkt des Inverkehrbringens, der Inbetriebnahme oder — bei einem Lieferanten — des Bereitstellens auf dem Markt noch nicht bestanden hat oder dass diese Fehlerhaftigkeit erst nach dem betreffenden Zeitpunkt entstanden ist''" (Artikel 11 Absatz 1 Buchstabe c PHRL neu). Wiederum in Bezug darauf enthält Artikel 11 Absatz 2 PHRL neu allerdings Ausnahmen, im Rahmen derer entsprechende Wirtschaftsakteure dennoch prinzipiell haftbar bleiben sollen. Diese beziehen sich darauf, dass die Fehlerhaftigkeit eines Produkts einen der Gründe hat, die in der Bestimmung genannt werden, sofern der jeweilige Grund zudem der ''Kontrolle des Herstellers'' untersteht. Die aufgezählten Ursachen umfassen unter anderem '''verbundene Dienste''' und '''Software''' (inklusive Software-Updates oder -Upgrades) sowie '''''wesentliche Änderungen''''' des Produkts, die wiederum im Detail in Artikel 4 Ziffer 18 PHRL neu definiert werden. Die Erwägungsgründe verweisen in Zusammenhang damit wiederum etwa auf maschinelles Lernen bzw fortlaufend lernende KI-Systeme.<ref>Vgl insbesondere Erwägungsgründe 40 und 50 PHRL neu.</ref> | ||
Gemäß Artikel 8 Absatz 2 soll zudem im Allgemeinen "[j]''ede natürliche oder juristische Person, die ein Produkt außerhalb der Kontrolle des Herstellers '''wesentlich verändert''' und es anschließend auf dem Markt bereitstellt oder in Betrieb nimmt"'' (Hervorhebungen hinzugefügt), in Hinblick auf die Regelung haftbarer Wirtschaftsakteure nach Artikel 8 Absatz 1 PHRL neu als entsprechender Produkthersteller gelten.<ref>Vgl zu ''wesentlichen Änderungen'' im Zusammenhang mit KI erneut insbesondere Erwägungsgrund 40 und allgemein weiterführend zudem auch 17 PHRL neu.</ref> | |||
Artikel | |||
=== Sonstiges (Auswahl) === | |||
Artikel 9 PHRL neu sieht Offenlegungspflichten für bestimmte Beweismittel vor, was in Erwägungsgrund 42 PHRL neu mitunter wiederum mit (insbesondere ''technischer und wissenschaftlicher'') '''Komplexität''' in Verbindung gebracht wird (vgl dazu schon oben). | |||
Die Haftung nach der PHRL neu soll gemäß deren Artikel 15 grundsätzlich nicht vertraglich oder durch nationales Recht ausgeschlossen oder beschränkt werden können. Gemäß Artikel 12 Absatz 2 PHRL neu kann aber | Gemäß Artikel 12 Absatz 1 PHRL neu sollen im Falle zweier bzw mehrerer für denselben Schaden haftbarer Wirtschaftsakteure diese prinzipiell solidarisch haftbar gemacht werden können (vgl im Detail Artikel 12 PHRL neu). Die Haftung von Wirtschaftsakteuren nach der PHRL neu soll gemäß deren Artikel 15 weiters grundsätzlich nicht vertraglich oder durch nationales Recht ausgeschlossen oder beschränkt werden können. Gemäß Artikel 12 Absatz 2 PHRL neu kann unter Umständen aber ein '''Haftungsrückgriff''' von Produktherstellern auf bestimmte Softwarekomponentenhersteller vertraglich ausgeschlossen werden.<ref>Vgl im Detail insbesondere Artikel 12 Absatz 2 Buchstabe a PHRL neu.</ref> | ||
== Synergien == | == Synergien == | ||
=== | === Vorschläge für AI Act, AILD und PHRL neu === | ||
* Der | * Der Vorschlag für eine AILD und der Vorschlag für eine neue Produkthaftungsrichtlinie zielten prinzipiell auf verschiedene Anwendungsfälle bzw Haftungsarten ab, sollten sich als Paket jedoch dementsprechend ergänzen.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 3; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 5.</ref> | ||
* Zudem waren die entsprechenden Bestrebungen der Kommission im Haftungsbereich als Paket mit dem Vorschlag für den AI Act zu sehen.<ref>Vgl darüber hinaus Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2 und 3.</ref> | |||
=== AI Act und Vorschlag AILD === | === AI Act und Vorschlag AILD === | ||
* | * Insbesondere durch die Heranziehung gewisser Begrifflichkeiten aus dem AI Act(-Vorschlag), aber auch durch die Heranziehung entsprechender Sorgfaltspflichten für die Voraussetzungen der Kausalitätsvermutung gemäß Vorschlag AILD (siehe im Detail: [[KI-Haftungsregelungen#Kausalitätsvermutung (Artikel 4)|Kausalitätsvermutung (Artikel 4)]]) hätten sich bei der AILD gegebenenfalls auch einschlägige Synergien mit dem AI Act ergeben. | ||
* Umgekehrt können aus der Interpretation gewisser Anforderungen nach dem AI Act(-Vorschlag) durch den Vorschlag für die AILD auch gewisse '''Ansatzpunkte für die Auslegung des AI Acts''' gewonnen werden: Denn nach dem Vorschlag AILD sollten, um die Kausalitätsvermutung gemäß deren Artikel 4 auszulösen (wie schon oben im Detail dargestellt), prinzipiell nur Verstöße gegen solche Sorgfaltspflichten einschlägig sein, „'''''deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern'''''“.<ref>Vgl Erwägungsgrund 22 und Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD; Hervorhebungen hinzugefügt.</ref> Weiters sollten dabei hinsichtlich Hochrisiko-KI-Systemen, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, jedenfalls in Hinblick auf deren Anbieter bzw Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen, wiederum nur bestimmte, abschließend (vgl: “''nur''”) aufgezählte Pflichten nach dem AI Act-Vorschlag einschlägig sein.<ref>Vgl Erwägungsgrund 26 und Artikel 4 Absatz 2 Vorschlag AILD; vgl hinsichtlich Hochrisiko-KI-Nutzern bereits oben unter [[KI-Haftungsregelungen#Kausalitätsvermutung (Artikel 4)|Kausalitätsvermutung (Artikel 4)]].</ref> Erwägungsgrund 22 Vorschlag AILD nannte zudem explizit regulatorische Erfordernisse, die nicht auf einen Schutz vor entsprechenden Schäden abzielen sollen (was sich wohl insbesondere auch auf den AI-Act-Vorschlag beziehen sollte<ref>Denn unmittelbar davor wurde etwa die Nichteinhaltung einer Gebrauchsanweisung (vgl diesbezüglich insbesondere Art 13 und 29 Abs 1 des AI-Act-Vorschlags; nunmehr prinzipiell Art 13 und 26 Abs 1 AI Act) als potenziell einschlägig angesehen: „''Somit kann diese Vermutung beispielsweise bei einem Schadensersatzanspruch aufgrund von Personenschäden gelten, wenn das Gericht feststellt, das ein Verschulden des Beklagten vorliegt, da dieser eine Gebrauchsanweisung, die eine Schädigung natürlicher Personen verhindern soll, nicht eingehalten hat.''“ Dies spiegelte sich schließlich auch in Art 4 Abs 3 lit a AILD-Vorschlag wider.</ref>), indem dieser festhielt: „''Verstöße gegen Sorgfaltspflichten, deren unmittelbarer Zweck nicht darin besteht, den eingetretenen Schaden zu verhindern, führen nicht zur Geltung der Vermutung; wenn beispielsweise ein Anbieter die erforderlichen Unterlagen nicht bei den zuständigen Behörden einreicht, würde dies bei Schadensersatzansprüchen aufgrund von Personenschäden nicht zur Geltung der Vermutung führen''“<ref>Vgl dazu etwa die Pflichten zur Übermittlung von Unterlagen bereits in Artikel 23 AI-Act-Vorschlag (nunmehr prinzipiell Art 21 AI Act); vgl in dem Zusammenhang allerdings auch Erwägungsgrund 25 Vorschlag AILD, der in Bezug auf einen Verstoß gegen Pflichten zur Dokumenteneinreichung oder Registrierung bei Behörden festhielt, dass diesfalls „''nach vernünftigem Ermessen nicht davon ausgegangen werden, dass er das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat''“, was zusätzlich auf die Voraussetzung nach Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD abzgezielt haben dürfte.</ref>. Demnach scheint die EU-Kommission im Vorschlag AILD zumindest teilweise nur manche AI Act-(Vorschlag)-Pflichten als '''''Sorgfaltspflicht,''' '''deren unmittelbarer Zweck die Verhinderung des eingetretenen Schadens''' '''ist''','' interpretiert zu haben. Das könnte wiederum Auswirkungen auf die Auslegung von AI Act-Regelungen als schadenersatzbegründende '''Schutzgesetze''' im Sinne des § 1311 ABGB<ref>Vgl hierzu grundlegend ''Karner'' in ''Bydlinski/Perner/Spitzer'', KBB. ABGB. Kommentar zum ABGB<sup>7</sup> (2023) § 1294 ABGB Rz 1, 4, § 1295 ABGB Rz 9, § 1311 ABGB Rz 3, 5.</ref> (und damit den Schadenersatz bei Verletzung des AI Acts) haben, wobei Schutzgesetzverletzungen im Zusammenhang mit KI besondere Relevanz zukommt.<ref>Vgl dazu, insbesondere zur Schutzgesetznatur von AI Act-Regelungen und zur Bedeutung der Haftung aufgrund von Schutzgesetzverletzungen im Zusammenhang mit KI, grundlegend ''Wendehorst'' in ''Martini/Wendehorst'', KI-VO. Verordnung über Künstliche Intelligenz. Kommentar (2024) Art 1 Rz 78 und folgende.</ref> | |||
=== AI Act und PHRL neu === | === AI Act und PHRL neu === | ||
* Im Rahmen der neuen Produkthaftungsrichtlinie wurde explizit auf den AI Act Bezug genommen, indem in | * Im Rahmen der neuen Produkthaftungsrichtlinie wurde explizit auf den AI Act Bezug genommen, indem in Erwägungsgrund 13 PHRL neu festgehalten wurde, dass "''Entwickler oder Hersteller von Software, einschließlich der Anbieter von KI-Systemen im Sinne'' [...]" des AI Acts als ''Hersteller'' (im Sinne der PHRL neu) erachtet werden sollten. Darüber hinaus ist davon auszugehen, dass auch die Bezugnahmen auf ''KI-Systeme'' in den Erwägungsgründen der PHRL neu vermutlich im Sinne des AI Acts zu verstehen sind (siehe auch unter '''[[KI-Haftungsregelungen#Neuer Produktbegriff und grundlegender Regelungsgegenstand|Neuer Produktbegriff und grundlegender Regelungsgegenstand]]'''). | ||
* Zudem | * Zudem handelt es sich bei den Regelungen des AI Acts wohl mitunter um Produktsicherheitsanforderungen im Sinne des Artikel 7 Absatz 2 Buchstabe f bzw Artikel 10 Absatz 2 Buchstabe b PHRL neu, die wiederum für die Beurteilung der Fehlerhaftigkeit eines KI-Systems im Rahmen der PHRL neu relevant wären. | ||
== Fallbeispiele == | == Fallbeispiele == | ||
Im Folgenden sollen anhand einiger vereinfachter Beispiele die Anwendbarkeit und Implikationen der hier relevanten Rechtsakte besprochen werden. Hierbei werden allerdings lediglich die als am naheliegendsten erscheinende Einordnung und Subsumption möglichst vereinfacht und verkürzt dargestellt. Demnach könnten im Detail unter Umständen auch andere (bzw weitere) Ergebnisse erreicht werden. Die folgenden Einordnungen und Subsumption sollen demnach lediglich eine Orientierungshilfe bieten. Zudem ist erneut hervorzuheben, dass Stand Februar 2025 der Vorschlag AILD noch nicht beschlossen (bzw scheinbar verworfen) wurde und die PHRL neu noch in nationales Recht umzusetzen ist, wobei eine endgültige Beurteilung erst dann erfolgen könnte. In Hinblick auf das Zusammenspiel des Vorschlags AILD und dem AI Act(-Vorschlag) ist erneut hervorzuheben, dass sich der Vorschlag AILD auf den damals vorliegenden AI Act-Vorschlag bezogen hat, wobei allerdings einige Aspekte im Laufe des Gesetzgebungsverfahrens des AI Acts verändert wurden (siehe schon [[KI-Haftungsregelungen#Allgemeines und Anwendungsbereich|Allgemeines und Anwendungsbereich]]). | |||
==== Beispiel 1: KI-gestütztes Kreditscoring ==== | ==== Beispiel 1: KI-gestütztes Kreditscoring ==== | ||
Zeile 136: | Zeile 143: | ||
|+ | |+ | ||
!Sachverhalt | !Sachverhalt | ||
| | |Das Ergebnis eines KI-Systems, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin. | ||
Durch die Trainingsdaten | Durch die Trainingsdaten, die dem System zugrunde lagen, wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären. | ||
|- | |- | ||
!Einordnung AI Act | !Einordnung AI Act | ||
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Ziffer 5 Buchstabe b vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]). | |Es liegt ein '''Hochrisiko-KI-System''' gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Ziffer 5 Buchstabe b AI Act vor (siehe im Detail [[Artificial Intelligence Act (AIA)#Hochrisiko-KI-Systeme (Art 6 AI Act)|Hochrisiko-KI-Systeme im AI Act]]). | ||
|- | |- | ||
!Einordnung AI Liability Directive | !Einordnung Vorschlag AI Liability Directive | ||
|In Hinblick auf die diskriminierende Trainingsdatenbasis | |In Hinblick auf die diskriminierende Trainingsdatenbasis würde gegebenenfalls insbesondere in Hinblick auf den Anbieter des Systems die '''Kausalitätsvermutung''' gemäß Artikel 4 Vorschlag AILD relevant erscheinen. Durch eine entsprechende Verletzung von (nunmehr) Artikel 10 AI Act (siehe im Detail [[Artificial Intelligence Act (AIA)#Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act)|Anforderungen an Hochrisiko-KI-Systeme]]) könnte Artikel 4 Absatz 2 Buchstabe a Vorschlag AILD erfüllt werden, wodurch eine der für Hochrisiko-KI-Anbieter taxativ aufgezählten, für die Vermutung einschlägigen Anforderungen betroffen wäre. Demnach erscheint in dem Zusammenhang insbesondere ein entsprechender Schadenersatzanspruch gegen den KI-Anbieter relevant, bei dem die Kausalitätsvermutung prinzipiell unter der Voraussetzung anwendbar wäre, dass der Kläger ein entsprechendes Verschulden des Anbieters<ref>"''oder einer Person, für deren Verhalten der Beklagte verantwortlich ist''" (Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD).</ref> sowie, dass das Ergebnis des KI-Kredit-Scorings zu seinem Schaden geführt hat, nachweist, sofern weiters auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden kann, dass das Verschulden das Ergebnis des KI-Kredit-Scorings beeinflusst hat. Nach dem Sachverhalt erscheint zumindest eine Beeinflussung des Scoring-Ergebnisses durch die diskriminierenden Trainingsdaten naheliegend. | ||
Durch eine entsprechende Verletzung von Artikel 10 AI Act (siehe im Detail | Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können. | ||
Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre prinzipiell auch die '''Offenlegungspflicht''' gemäß Artikel 3 Vorschlag AILD einschlägig. Bei entsprechender gerichtlicher Anordnung (siehe zu den Voraussetzungen im Detail unter [[KI-Haftungsregelungen#Offenlegungspflicht (Artikel 3)|Offenlegungspflicht (Artikel 3)]]) müssten demnach einschlägige Beweismittel zu dem Kredit-Scoring-System, die dem Anbieter oder dem Nutzer (/Betreiber) vorliegen, offengelegt werden. Dies würde wohl insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act, vor allem in Hinblick auf die Trainingsdatenbasis relevant sein (vgl insbesondere Erwägungsgründe 16, 18 und 19 Vorschlag AILD; [[Artificial Intelligence Act (AIA)#Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act)|Anforderungen an Hochrisiko-KI-Systeme]]). | |||
Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre | |||
Würden die Beweismittel trotz entsprechender gerichtlicher Anordnung nicht offengelegt, sollte ein Sorgfaltspflichtverstoß gemäß Artikel 3 Absatz 5 Vorschlag AILD auch widerlegbar vermutet werden können, was wiederum insbesondere Beweismittel betreffen sollte, die Umstände rund um die Verletzung jener AI Act-Anforderungen durch den KI-Anbieter oder -Nutzer beweisen sollen, die für die Kausalitätsvermutung nach dem Vorschlag AILD relevant sein sollten (vgl Artikel 4 Absätze 2 und 3 Vorschlag AILD). Dies wäre im gegenständlichen Fall wie dargestellt vor allem in Bezug auf den KI-Anbieter (und dessen Pflichten nunmehr gemäß Artikel 10 AI Act) von Relevanz. Diese Vermutung könnte gemäß Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD wiederum auch für die Voraussetzungen der Kausalitätsvermutung bedeutsam sein. | |||
|- | |- | ||
!Einordnung Produkthaftungs-RL | !Einordnung neue Produkthaftungs-RL | ||
|Die | |Die PHRL neu ist bei reinen (nicht in Artikel 6 adressierten) Vermögensschäden '''nicht anwendbar''' (Artikel 6 PHRL neu e contrario; Erwägungsgründe 23 und 24 PHRL neu). | ||
|} | |} | ||
Zeile 159: | Zeile 165: | ||
!Sachverhalt | !Sachverhalt | ||
|Ein KI-Chatbotassistent wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern. | |Ein KI-Chatbotassistent wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern. | ||
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) | Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) zu einer fehlerhaften Überweisung, indem der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.<ref>Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.</ref> | ||
|- | |- | ||
!Einordnung AI Act | !Einordnung AI Act | ||
|Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Artikel 5 AI Act, noch ein Hochrisiko-KI-System gemäß Artikel 6 AI Act vorliegen. | |Auch wenn '''grundsätzlich ein KI-System im Sinne des AI Act''' vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Artikel 5 AI Act, noch ein Hochrisiko-KI-System gemäß Artikel 6 AI Act vorliegen. | ||
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen. | Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die '''Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act''' einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|Transparenzpflichten]]). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen. Nach dem Sachverhalt ist insbesondere die Rolle des Betreibers naheliegend. | ||
|- | |- | ||
!Einordnung AI Liability Directive | !Einordnung Vorschlag AI Liability Directive | ||
|Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die Kausalitätsvermutung nach dem Vorschlag | |Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die '''Kausalitätsvermutung''' nach dem Vorschlag AILD in einschlägigen Schadenersatzverfahren (insbesondere gegen die Bank oder allenfalls den KI-Anbieter) relevant. Hierbei wäre aber in Hinblick auf den fehlerhaften Assistenz-Chatbot wohl vorrangig zu überlegen, inwieweit insbesondere ein Verschulden der Bank (als wohl jedenfalls Nutzer/Betreiber) bzw des KI-Anbieters oder einer Person vorliegt, für deren Verhalten diese jeweils verantwortlich wären. Dieses hätte im '''Verstoß gegen eine national- oder unionsrechtlich festgelegte Sorgfaltspflicht ''liegen'', deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern'''<ref>Im Detail versteht Artikel 2 Ziffer 9 Vorschlag AILD unter "''Sorgfaltspflicht''" dabei "''einen im nationalen Recht oder im Unionsrecht festgelegten Verhaltensmaßstab, der einzuhalten ist, um eine Beeinträchtigung von im nationalen Recht oder im Unionsrecht anerkannten Rechtsgütern, einschließlich Leben, körperlicher Unversehrtheit, Eigentum und Wahrung der Grundrechte, zu vermeiden''".</ref> liegen müssen und in der Folge nachgewiesen werden müssen (Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD). Da kein Hochrisiko-KI-System im Sinne des AI Act vorliegt, wäre dies durch Artikel 4 Vorschlag AILD auch nicht derart (siehe etwa Beispiel 1) beschränkt gewesen.<ref>Insbesondere hält Erwägungsgrund 24 Vorschlag AILD in dem Zusammenhang fest: "''In Bereichen, die nicht durch das Unionsrecht harmonisiert sind, gelten weiterhin nationale Rechtsvorschriften, und ein Verschulden wird nach dem geltenden nationalen Recht festgestellt''".</ref> Zudem müsste die Kausalität der Übernahme der falschen Überweisungssumme für den geltend gemachten Schaden bewiesen werden (Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Ein möglicher Schaden könnte im Beispiel wohl zumindest in den Kosten dafür bestehen, die fehlerhafte Überweisung rückgängig zu machen.<ref>Regelungen zu Begriffen wie "''Schaden''" sollten durch die AILD allerdings grundsätzlich unberührt bleiben; dies wäre daher insbesondere national zu beurteilen: vgl Erwägungsgrund 22 Vorschlag AILD; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.</ref> Außerdem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das Verschulden den beschriebenen Fehler des Chatbots beeinflusst hat (Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD). Da kein Hochrisiko-KI-System vorliegt, sollte die Vermutung schließlich nur gelten, "''wenn es nach Auffassung des nationalen Gerichts für den Kläger übermäßig schwierig ist",'' den etwaig zu vermutenden Kausalzusammenhang zu beweisen (Artikel 4 Absatz 5 Vorschlag AILD)''.'' Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können. | ||
Hierbei wäre aber | Da kein Hochrisiko-KI-System vorliegt, wäre die '''Offenlegungspflicht''' gemäß Artikel 3 Vorschlag AILD '''nicht anwendbar'''. Somit könnte auf dieser Basis auch nicht die Vorlage entsprechender Beweismittel geltend gemacht werden, was die beschriebenen Nachweise wohl erschweren würde. | ||
Da kein Hochrisiko-KI-System vorliegt, wäre die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD | |||
|- | |- | ||
!Einordnung Produkthaftungs-RL | !Einordnung neue Produkthaftungs-RL | ||
|Die | |Die PHRL neu ist bei reinen (nicht in Artikel 6 adressierten) Vermögensschäden '''nicht anwendbar''' (Artikel 6 PHRL neu e contrario; Erwägungsgründe 23 und 24 PHRL neu). | ||
|} | |} | ||
Zeile 180: | Zeile 182: | ||
{| class="wikitable" | {| class="wikitable" | ||
!Sachverhalt | !Sachverhalt | ||
|Ein KI-Assistenzsystem, das standardmäßig auf Betriebssystemebene bei einer bestimmten Marke privater Computer implementiert ist, wird durch eine Nutzerin | |Ein KI-Assistenzsystem, das standardmäßig auf Betriebssystemebene bei einer bestimmten Marke privater Computer implementiert ist, wird durch eine Nutzerin eines solchen Computers aufgefordert, bestimmte Dateien (Scans von wichtigen privaten Dokumenten) zu suchen. | ||
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das | Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das Assistenzsystem einzudringen, sodass dieses die Dateien stattdessen an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht. | ||
'''Variante:''' Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses interpretiert das Wort „''Löschung''“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert. | '''<u>Variante:</u>''' Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses System interpretiert das Wort „''Löschung''“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert. | ||
|- | |- | ||
!Einordnung AI Act | !Einordnung AI Act | ||
|Für die Nutzerin als Betreiberin liegt vermutlich die "Haushaltsausnahme" vor, wodurch der AI Act nicht zur Anwendung kommt (Artikel 2 Absatz 10 AI Act). | |'''Für die Nutzerin als Betreiberin''' liegt vermutlich die '''"Haushaltsausnahme"''' vor, wodurch der '''AI Act nicht zur Anwendung''' kommt (Artikel 2 Absatz 10 AI Act). | ||
Für den Anbieter: Auch wenn | '''Für den Anbieter''': Auch wenn prinzipiell ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich '''weder''' eine prinzipiell '''verbotene Praxis''' gemäß Artikel 5 AI Act, '''noch ein Hochrisiko-KI-System''' gemäß Artikel 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich im Sinne von Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Artikel 6 Absatz 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. | ||
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|'''Transparenzpflichten''']]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das "für die direkte Interaktion mit natürlichen Personen bestimmt" ist. | Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die '''Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act''' einschlägig sein (siehe im Detail [[Artificial Intelligence Act (AIA)#Transparenzpflichten (Art 50 AI Act)|'''Transparenzpflichten''']]). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das "''für die direkte Interaktion mit natürlichen Personen bestimmt''" ist. | ||
|- | |- | ||
!Einordnung AI Liability Directive | !Einordnung Vorschlag AI Liability Directive | ||
|Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die Kausalitätsvermutung nach dem Vorschlag | |Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die '''Kausalitätsvermutung''' nach dem Vorschlag AILD in einschlägigen Schadenersatzverfahren (wohl insbesondere gegen den KI-Anbieter)<ref>Prinzipiell könnte im Grundfall freilich auch überlegt werden, den Angreifer in Haftung zu nehmen. Allerdings wird dies wohl faktisch schwierig umzusetzen sein.</ref> relevant. Ähnlich wie in Beispiel 2 wären dabei allerdings der Nachweis eines Verschuldens (insbesondere des Anbieters oder von Personen, für deren Verhalten dieser verantwortlich ist) sowie der Kausalität der Aktionen des Assistenzsystems für den Schaden zu erbringen und wohl fraglich. Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass ein etwaiges Verschulden die beschriebenen Aktionen des Assistenzsystems beeinflusst hat (siehe insgesamt Artikel 4 Absatz 1 Vorschlag AILD). | ||
Die geforderten Nachweise | Da wiederum prinzipiell kein Hochrisiko-KI-System vorliegt, sollte die Vermutung schließlich nur gelten, "''wenn es nach Auffassung des nationalen Gerichts für den Kläger übermäßig schwierig ist",'' den etwaig zu vermutenden Kausalzusammenhang zu beweisen (Artikel 4 Absatz 5 Vorschlag AILD)''.'' | ||
Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können. | |||
Die für die Kausalitätsvermutung geforderten Nachweise wären wiederum auch deswegen fraglich, weil diesfalls die '''Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD nicht anwendbar''' wäre, weil grundsätzlich kein Hochrisiko-KI-System vorliegt. | |||
|- | |- | ||
!Einordnung Produkthaftungs-RL | !Einordnung neue Produkthaftungs-RL | ||
|Die | |Die PHRL neu ist zwar bei reinen (nicht in Artikel 6 adressierten) Vermögensschäden nicht anwendbar (Artikel 6 PHRL ''e contrario''; Erwägungsgründe 23 und 24 PHRL neu), allerdings sehr wohl auf Vermögensschäden, die sich aus der "''Vernichtung oder Beschädigung von Daten''" ergeben, "''die nicht für berufliche Zwecke verwendet werden''" (Artikel 6 Absatz 2 in Verbindung mit Absatz 1 Buchstabe c PHRL neu). Dies würde nach dem Sachverhalt grundsätzlich zutreffen, jedenfalls sofern sich aus der Löschung der Dokumentdateien ein finanzieller Schaden ergibt. Dieser wäre dann prinzipiell ersatzfähig. | ||
Weiters wären aber auch entsprechende immaterielle Schäden erfasst, soweit diese nach dem nationalen Recht ersatzfähig sind, was sich nach Erwägungsgrund 23 PHRL neu insbesondere auf ''Schmerzen und Leid'' beziehen soll. Diesbezüglich ist demnach auch | Weiters wären gemäß Artikel 6 Absatz 2 PHRL neu aber auch entsprechende immaterielle Schäden erfasst, soweit diese nach dem nationalen Recht ersatzfähig sind, was sich nach Erwägungsgrund 23 PHRL neu insbesondere auf ''Schmerzen und Leid'' beziehen soll. Diesbezüglich ist demnach insbesondere auch die konkrete nationale Umsetzung abzuwarten. | ||
Bei dem Assistenzsystem handelt es sich um eine Software und damit grundsätzlich um ein ''Produkt'' im Sinne des Artikel 4 Ziffer 1 PHRL neu<ref>Prinzipiell ist in diesem Zusammenhang aber auch auf Software-as-a-Service-Modelle zu verweisen, die demnach anders zu beurteilen sein könnten.</ref>, gleichzeitig liegt aber auch eine Komponente im Sinne des Artikel 4 Ziffer 4 PHRL neu vor (in das Betriebssystem des Computers integrierter/verbundener nicht-körperlicher Gegenstand).<ref>Vgl grundlegend Erwägungsgrund 13 PHRL neu, sowie zur Produkteigenschaft von in ein anderes Produkt integrierten Komponenten zudem Erwägungsgrund 36 PHRL neu.</ref> | |||
In der Folge wäre insbesondere zu überlegen, inwieweit eine Fehlerhaftigkeit des Assistenzsystems die jeweiligen Schäden verursacht hat. | |||
Bei der Beurteilung der Fehlerhaftigkeit sind gemäß Artikel 7 Absatz 2 PHRL neu grundsätzlich alle Umstände einzubeziehen, was insbesondere auch einschlägige Produktsicherheitsanforderungen, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen, betrifft (Buchstabe f). Daneben sind auch andere | Bei der Beurteilung der Fehlerhaftigkeit von Produkten sind gemäß Artikel 7 Absatz 2 PHRL neu grundsätzlich alle Umstände einzubeziehen, was insbesondere auch einschlägige Produktsicherheitsanforderungen, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen, betrifft (Buchstabe f). Daneben sind auch andere Aspekte in Artikel 7 Absatz 2 PHRL neu genannt. Sofern der Kläger den Nachweis erbringen würde, dass das Produkt '''verbindliche''' Produktsicherheitsanforderungen des Unions- oder nationalen Rechts verletzt, die vor dem Risiko des erlittenen Schadens schützen sollen, wäre die Fehlerhaftigkeit gemäß Artikel 10 Absatz 2 Buchstabe b sogar zu vermuten. In dem Zusammenhang würden prinzipiell insbesondere Regelungen des AI Act relevant erscheinen. Da die Cybersicherheitsanforderungen gemäß Artikel 15 AI Act nur auf Hochrisiko-KI-Systeme anwendbar sind (siehe [[Artificial Intelligence Act (AIA)#Genauigkeit, Robustheit und Cybersicherheit (Art 15 AI Act)|Genauigkeit, Robustheit und Cybersicherheit]]), müsste die Fehlerhaftigkeit diesfalls aber anhand anderer Aspekte bzw Überlegungen hinsichtlich der Sicherheit, die eine Person erwarten darf oder die unions- oder nationalrechtlich vorgeschrieben ist, festgestellt werden. | ||
Bei der '''Variante''' hingegen liegt nach dem Sachverhalt insbesondere der Schluss nahe, dass | <u>'''Bei der''' '''Variante'''</u> hingegen liegt nach dem Sachverhalt insbesondere der Schluss nahe, dass etwaig gegebene Informationspflichten gemäß Artikel 50 Absatz 1 AI Act nicht eingehalten wurden. Sofern man davon ausgeht, dass es sich dabei um verbindliche Produktsicherheitsanforderungen handelt, die vor dem Risiko entsprechender Schäden schützen sollen, und die Nutzerin eine entsprechende Verletzung nachweist, wäre die Fehlerhaftigkeit des Assistenzsystems als Produkt demnach zu vermuten. | ||
Prinzipiell hätte der Kläger weiters den erlittenen Schaden und den Kausalzusammenhang zwischen diesem und der Fehlerhaftigkeit des Produkts nachzuweisen (Siehe im Detail Artikel 10 PHRL neu). | |||
Gegebenenfalls können insbesondere Hersteller von Produkten für deren Fehlerhaftigkeit haftbar gemacht werden (Artikel 8 Absatz 1 Buchstabe a PHRL neu; vgl auch Erwägungsgrund 36 PHRL neu). Dies kann nach Erwägungsgrund 13 PHRL neu insbesondere auch der Anbieter eines KI-Systems gemäß AI Act sein. Unbeschadet dessen trifft die Haftung insbesondere auch den "''Hersteller einer fehlerhaften Komponente, wenn diese Komponente unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden wurde und die Fehlerhaftigkeit dieses Produkts verursacht hat''" (Artikel 8 Absatz 1 Buchstabe b PHRL neu). Nach dem Sachverhalt ist davon auszugehen, dass das Assistenzsystem unter der Kontrolle des Betriebssystem-Herstellers als Komponente in dieses integriert wurde, wobei das Betriebssystem als Software wiederum ein Produkt darstellen dürfte (vgl Erwägungsgrund 13 PHRL neu). Nach dem Sachverhalt ist weiters wohl davon auszugehen, dass das Betriebssystem wiederum unter der Kontrolle des Computer-Herstellers zur Komponente des Computers als wiederum eigenständiges Produkt im Sinne des Artikel 4 Ziffer 4 PHRL neu wurde. Gegebenenfalls könnte demnach jedenfalls der Anbieter des Assistenzsystems als Produkthersteller haftbar gemacht werden. Sofern das Assistenzsystem aber auch die jeweilige Fehlerhaftigkeit des Betriebssystems bzw des Computers verursacht hat, könnten gegebenenfalls auch deren Hersteller haftbar gemacht werden und unbeschadet dessen wiederum der Anbieter des Assistenzsystems als Komponentenhersteller (vgl Artikel 8 und insbesondere Erwägungsgrund 36 PHRL neu). | |||
Je nach den Umständen des Falles kämen aber auch noch andere Wirtschaftsakteure für eine Haftung in Frage (vgl im Detail Artikel 8 PHRL neu). | |||
Die Tatsache, dass (auch) die | Zwei oder mehrere für denselben Schaden haftbare Wirtschaftsakteure sollen nach Artikel 12 Absatz 1 PHRL neu prinzipiell solidarisch haftbar gemacht werden können (vgl allerdings insbesondere Absatz 2 zum unter Umständen möglichen Regress-Ausschluss). | ||
Die Tatsache, dass im Grundfall (auch) die Handlungen eines Angreifers zu entsprechenden Schäden geführt hat, darf die Haftung der jeweiligen Wirtschaftsakteure prinzipiell nicht mindern oder ausschließen (vgl Artikel 13 Absatz 1, Erwägungsgrund 55 PHRL neu). | |||
|} | |} | ||
Zeile 229: | Zeile 237: | ||
Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Artikel 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird. | Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die [[Artificial Intelligence Act (AIA)#Änderung der Rolle des Akteurs/Verantwortlichkeit entlang der Wertschöpfungskette (Art 25 AI Act)|Möglichkeit der Änderung der Rolle]]). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Artikel 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird. | ||
|- | |- | ||
!Einordnung AI Liability Directive | !Einordnung Vorschlag AI Liability Directive | ||
|Nachdem ein | |Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die '''Kausalitätsvermutung''' nach dem Vorschlag AILD in einschlägigen Schadenersatzverfahren (wohl insbesondere gegen den KI-Anbieter; unter Umständen auch gegen die Klinik als Nutzer/Betreiber) relevant. | ||
Dieses Verschulden | In Bezug auf den KI-Anbieter wäre aber wohl vor allem zu überlegen, inwieweit in Hinblick auf die fehlerhaften Ergebnisse der KI ein Verschulden des KI-Anbieters oder einer Person vorliegt, für deren Verhalten dieser verantwortlich wäre. Dies müsste prinzipiell in der Folge nachgewiesen werden (vgl Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD; siehe auch noch im Folgenden). Dieses Verschulden müsste bei entsprechenden Anbietern von Hochrisiko-KI wiederum in der Verletzung bestimmter Anforderungen des AI Act(-Vorschlag)s begründet sein. Darunter würde gemäß Artikel 4 Absatz 2 Buchstabe a Vorschlag AILD aber prinzipiell auch das Training mit Daten fallen, die nicht entsprechenden Qualitätskriterien des AI Act(-Vorschlags) (nunmehr Artikel 10 AI Act) entsprechen. | ||
Weiters müsste auch die Kausalität der fehlerhaften Diagnose bzw Therapieempfehlungen für den geltend gemachten Schaden nachgewiesen werden (vgl Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das entsprechende Verschulden den beschriebenen Fehler des KI-Systems beeinflusst hat (vgl 4 Absatz 1 Buchstabe b Vorschlag AILD). Nach dem Sachverhalt erscheint zumindest eine Beeinflussung des fehlerhaften KI-Ergebnisses durch die Trainingsdaten naheliegend. Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können. | |||
Weiters müsste auch die Kausalität der fehlerhaften Diagnose bzw Therapieempfehlungen für den geltend gemachten Schaden nachgewiesen werden (Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das Verschulden den beschriebenen Fehler des KI-Systems beeinflusst hat. | Im Übrigen hätte das im Sachverhalt beschriebene (potenziell fehlerbehaftete) Verhalten der Ärztin die fehlerhaften Ausgaben des KI-Systems prinzipiell nicht beeinflusst, weil es schließlich erst im Nachhinein (auf Basis ebenjener KI-Ausgaben) erfolgt wäre. Dies wäre wohl wiederum insbesondere bei entsprechenden Schadenersatzforderungen gegen die Klinik als vermutlichen Nutzer (Betreiber) des KI-Systems in Hinblick auf die Kausalitätsvermutung gemäß Vorschlag AILD relevant. Ein etwaiger Verstoß gegen die Pflicht zur Verwendung des (Hochrisiko-)KI-Systems nach seiner Gebrauchsanweisung (als Verstoß gegen dabei einschlägige Sorgfaltspflichten des Nutzers/Betreibers des KI-Systems<ref>Vgl Artikel 4 Absatz 3 Buchstabe a Vorschlag AILD und weiters insbesondere insbesondere Artikeln 13 und 29 Absatz 1 des AI-Act-Vorschlags; nunmehr prinzipiell Artikeln 13 und 26 Absatz 1 AI Act.</ref>) hätte aber wohl wiederum einen entsprechenden weiteren Ansatz in diesem Zusammenhang bieten können. | ||
Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre prinzipiell auch die '''Offenlegungspflicht''' gemäß Artikel 3 Vorschlag AILD einschlägig. Bei entsprechender gerichtlicher Anordnung (siehe zu den Voraussetzungen im Detail unter [[KI-Haftungsregelungen#Offenlegungspflicht (Artikel 3)|Offenlegungspflicht (Artikel 3)]]) müssten demnach einschlägige Beweismittel zu dem Kredit-Scoring-System, die dem Anbieter oder dem Nutzer (/Betreiber) vorliegen, offengelegt werden. Dies würde wohl insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act, vor allem in Hinblick auf die Trainingsdatenbasis relevant sein (vgl insbesondere Erwägungsgründe 16, 18 und 19 Vorschlag AILD; [[Artificial Intelligence Act (AIA)#Anforderungen an Hochrisiko-KI-Systeme (Art 8-15 AI Act)|Anforderungen an Hochrisiko-KI-Systeme]]). | |||
Würden die Beweismittel trotz entsprechender gerichtlicher Anordnung nicht offengelegt, sollte ein Sorgfaltspflichtverstoß gemäß Artikel 3 Absatz 5 Vorschlag AILD auch widerlegbar vermutet werden können, was wiederum insbesondere Beweismittel betreffen sollte, die Umstände rund um die Verletzung jener AI Act-Anforderungen durch den KI-Anbieter oder -Nutzer beweisen sollen, die für die Kausalitätsvermutung nach dem Vorschlag AILD relevant sein sollten (vgl Artikel 4 Absätze 2 und 3 Vorschlag AILD). Dies wäre im gegenständlichen Fall wie dargestellt vor allem in Bezug auf den KI-Anbieter (und dessen Pflichten nunmehr gemäß Artikel 10 AI Act) unter Umständen aber eben auch in Hinblick auf die Klinik als Nutzer von Relevanz. Diese Vermutung könnte gemäß Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD wiederum auch für die Voraussetzungen der Kausalitätsvermutung bedeutsam sein. | |||
|- | |- | ||
!Einordnung Produkthaftungs-RL | !Einordnung neue Produkthaftungs-RL | ||
|Da es sich bei dem System um eine Software und damit ein Produkt im Sinne des Artikel 4 Ziffer 1 PHRL neu handelt, wäre die PHRL neu grundsätzlich | |Da es sich bei dem KI-System um eine Software und damit ein ''Produkt'' im Sinne des Artikel 4 Ziffer 1 PHRL neu handelt (vgl Erwägungsgrund 13 PHRL neu), wäre die PHRL neu grundsätzlich einschlägig. | ||
Weiters liegt ein ersatzfähiger Schaden in Form der Körperverletzung vor (Artikel 6 Absatz 1 Buchstabe a PHRL neu). | Weiters liegt ein nach dieser prinzipiell ersatzfähiger Schaden in Form der Körperverletzung vor (Artikel 6 Absatz 1 Buchstabe a PHRL neu). | ||
Anschließend wäre zu überlegen, inwieweit das KI-System fehlerhaft war. Bei der Beurteilung der Fehlerhaftigkeit sind gemäß Artikel 7 Absatz 2 PHRL neu grundsätzlich alle Umstände einzubeziehen, was insbesondere auch einschlägige Produktsicherheitsanforderungen, wie wohl auch (gewisse) Regelungen des AI Act, betrifft (Buchstabe f). Soweit durch die Verletzung der Anforderungen an Trainingsdaten gemäß Artikel 10 AI Act gegen '''verbindliche''' unionsrechtliche Produktsicherheitsanforderungen verstoßen wurde, die wohl durchaus vor dem Risiko des erlittenen Schadens schützen sollen<ref>Vgl insbesondere Erwägungsgrund 67 und Artikel 10 Absatz 2 Buchstabe f AI Act.</ref>, wäre die Fehlerhaftigkeit des KI-Systems als Produkt gemäß Artikel 10 Absatz 2 Buchstabe b PHRL neu zu vermuten, wenn der Kläger diesen Verstoß nachweist.<ref>Vgl in dem Zusammenhang auch die Ausführungen zur Beweismitteloffenlegung gemäß Vorschlag AILD, die wohl auch in dem Zusammenhang relevant wäre.</ref> Prinzipiell hätte der Kläger außerdem den erlittenen Schaden und den Kausalzusammenhang zwischen diesem und der Fehlerhaftigkeit des Produkts nachzuweisen (Siehe im Detail Artikel 10 PHRL neu). | |||
Gegebenenfalls wäre prinzipiell insbesondere der Anbieter des KI-Systems als Hersteller haftbar (vgl Erwägungsgrund 13 PHRL neu). Je nach den Umständen des Falles kämen aber auch andere Wirtschaftsakteure für eine Haftung in Frage (vgl im Detail Artikel 8 PHRL neu). | |||
|} | |} | ||
Zeile 264: | Zeile 272: | ||
* ''European Data Protection Supervisor'', Opion 42/2023 on the Porporsals for two Directives on AI liability rules, 11. 10. 2023 | * ''European Data Protection Supervisor'', Opion 42/2023 on the Porporsals for two Directives on AI liability rules, 11. 10. 2023 | ||
* ''European Parliamentary Research Service'', Artificial intelligence liability directive, PE 739.342, February 2023 | * ''European Parliamentary Research Service'', Artificial intelligence liability directive, PE 739.342, February 2023 | ||
* ''European Parliamentary Research Service'', Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024 | |||
* ''Dötsch'', Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023) | * ''Dötsch'', Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023) | ||
* ''Handig'', Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 | * ''Handig'', Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 | ||
* ''Joggerst/Wendt'', Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13 | * ''Joggerst/Wendt'', Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13 | ||
* ''Karner'' in ''Bydlinski/Perner/Spitzer'', KBB. ABGB. Kommentar zum ABGB<sup>7</sup> (2023) § 1294 ABGB, § 1295 ABGB, § 1311 ABGB | |||
* ''Larcher'', Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130 | * ''Larcher'', Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130 | ||
* ''Wendehorst'' in ''Martini/Wendehorst'', KI-VO. Verordnung über Künstliche Intelligenz. Kommentar (2024) Art 1 | |||
=== Judikatur === | === Judikatur === |
Aktuelle Version vom 7. März 2025, 09:11 Uhr
![]() Richtlinie (EU) 2025/ | |
---|---|
Titel: | Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz |
Kurztitel: | AI Liability Directive/Richtlinie über KI-Haftung |
Bezeichnung: (nicht amtlich) |
AILD |
Geltungsbereich: | EWR |
Rechtsmaterie: | Binnenmarkt, Cybersicherheit |
Grundlage: | AEUV, insbesondere Art. 114 |
Anzuwenden ab: | Vorschlagsstadium |
Fundstelle: | Noch nicht im ABl veröffentlicht |
Volltext | Konsolidierte Fassung (nicht amtlich) Grundfassung |
Regelung ist ein aktueller Vorschlag im Rechtsetzungsprozess. | |
Hinweis zur geltenden Fassung von Rechtsakten der Europäischen Union |
![]() Richtlinie (EU) 2024/2853 | |
---|---|
Titel: | Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates |
Kurztitel: | Product Liability Directive/Produkthaftungsrichtlinie (neu) |
Bezeichnung: (nicht amtlich) |
PLD/PHRL |
Geltungsbereich: | EWR |
Rechtsmaterie: | Binnenmarkt, Cybersicherheit |
Grundlage: | AEUV, insbesondere Art. 114 |
Anzuwenden ab: | 9. Dezember 2026 (Umsetzung) |
Fundstelle: | ABl L 2024/2853, 1 |
Volltext | Konsolidierte Fassung (nicht amtlich) Grundfassung |
Regelung muss aktuell in nationales Recht umgesetzt werden. | |
Hinweis zur geltenden Fassung von Rechtsakten der Europäischen Union |
Überblick
Im Bereich der Regulierung künstlicher Intelligenz durch die EU wurden neben dem AI Act von der Kommission auch Vorschläge für spezifische Haftungsregelungen in diesem Zusammenhang vorgelegt. Dies beinhaltete zum einen den Vorschlag für eine neue Produkthaftungsrichtlinie, welcher zwar auch andere Hintergründe hatte, aber durch einige Aspekte insbesondere auch auf künstliche Intelligenz (KI) abzielte, und zum anderen einen Vorschlag für eine eigene AI Liability Directive (AILD).[1]
Während die neue Produkthaftungsrichtlinie wiederum im Wesentlichen auf harmonisierte Regelungen für eine verschuldensunabhängige[2] (zivilrechtliche) Haftung abzielen sollte, adressierte der Vorschlag für die AILD insbesondere Beweiserleichterungen im Rahmen der (prinzipiell dennoch weiterhin) aus nationalen bzw sonstigen unionsrechtlichen Regelungen ableitbaren außervertraglichen, verschuldensabhängigen, zivilrechtlichen Haftung.[3]
Durch diese Regelungen der AILD sollte vorrangig (Beweis-)Problematiken entgegengetreten werden, die mit gewissen Eigenschaften von KI in Verbindung gebracht wurden, wie deren Komplexität und Undurchsichtigkeit (die wiederum insgesamt als Blackbox-Effekt bezeichnet werden). Angesprochen wurden dabei insbesondere Nachweise für die Aspekte Kausalität und in gewisser Hinsicht auch Verschulden.[4] Den Erläuterungen in der Begründung des Vorschlags zufolge wurden in dem Zusammenhang verschiedene Optionen abgewogen und insbesondere die Statuierung einer eigenen (verschuldensunabhängigen) Haftung für KI vorerst verworfen, was allerdings demnach nach einer gewissen Zeit noch einmal evaluiert werden sollte (siehe im Detail Artikel 5 Vorschlag AILD).[5]
Im Rahmen der neuen Produkthaftungsrichtlinie sollte nach umfassenden Unklarheiten und potenziellen Regelungslücken[6] in diesem Zusammenhang nunmehr Software (und damit auch KI) explizit in den Produktbegriff aufgenommen werden. Darüber hinaus zielen auch gewisse Aspekte der neuen Produkthaftungsregelungen mehr oder weniger spezifisch auf KI bzw deren Besonderheiten ab.[7]
Beide Vorschläge zielten auf Richtlinien ab, was insbesondere bedeutet, dass diese prinzipiell zunächst durch die Mitgliedstaaten in nationales Recht umgesetzt werden müssten, um Geltung zu erlangen. Allerdings sind die jeweiligen Gesetzgebungsverfahren sehr unterschiedlich verlaufen. Die neue Produkthaftungsrichtlinie ist mittlerweile im Amtsblatt der EU veröffentlicht worden[8] und prinzipiell in Kraft getreten, während das Gesetzgebungsverfahren für die AILD offenbar aufgeschoben wurde und zwischenzeitlich diverse Änderungen des Vorschlags diskutiert wurden. Stand Mitte Februar 2025 hat die Kommission den Vorschlag für die AILD offenbar verworfen. Siehe im Detail jeweils unter Vorschlag für AI Liability Directive bzw Produkthaftungsrichtlinie neu.
Vorschlag für AI Liability Directive
Allgemeines und Anwendungsbereich
Der Vorschlag für eine AI Liability Directive (im Folgenden insbesondere: Vorschlag AILD) wurde 2022 von der Kommission vorgelegt.[9] In der Folge wurde berichtet, dass der Gesetzgebungsprozess zwischenzeitlich aufgeschoben wurde, insbesondere um zunächst die gesetzgeberische Fertigstellung des AI Acts abzuwarten und dass von der Kommission nicht öffentlich ein überarbeiteter Vorschlag ausgesendet wurde, der insbesondere an den inzwischen veröffentlichten AI Act, aber zumindest mitunter auch in Bezug auf seine konkreten Regelungen, angepasst worden sein soll.[10] Im September 2024 wurde zudem eine Studie des European Parliamentary Research Service (EPRS) publiziert, im Rahmen welcher insbesondere eine gemischte (verschuldensab- und unabhängige) Haftung diskutiert wird sowie die Ausweitung des Anwendungsbereichs der Richtlinie (etwa auf Software generell) vorgeschlagen wird.[11]
Im Februar 2025 wurde schließlich bekannt, dass die Kommission den Vorschlag für die AILD im Rahmen des Arbeitsprogramms zurückgezogen hat, da keine Einigung zu erwarten wäre.[12]
Demnach wird im Folgenden nur auf den ursprünglichen Vorschlag der Kommission detaillierter eingegangen, der demnach jedoch erst wieder aufgegriffen werden müsste, um entsprechende Relevanz zu erfahren.
Dieser enthielt im Wesentlichen zwei Elemente, die als Beweiserleichterungen bei der Geltendmachung von Schadenersatz im Zusammenhang mit KI dienen sollen: zum einen eine Offenlegungspflicht für bestimmte KI-Systeme und zum anderen eine Kausalitätsvermutung im Zusammenhang mit KI-Systemen im Allgemeinen.[13] Bereits der ursprüngliche Richtlinienvorschlag hat gewisse Begrifflichkeiten bzw Systematik (etwa hinsichtlich KI-Systemen und gewissen, mit diesen in Verbindung stehenden Akteuren) aus dem damals vorliegenden AI Act-Vorschlag[14] übernommen, die jedoch teilweise nicht mehr jenen der veröffentlichten Version des AI Act entsprechen.[15] Dies betrifft etwa Nutzer von KI-Systemen, die in der 2024 im Amtsblatt veröffentlichten Fassung des AI Act nunmehr grundsätzlich dem Betreiber gemäß Artikel 3 Ziffer 4 AI Act entsprechen würden.
Dabei ist anzumerken, dass der AI Act (in der im Amtsblatt veröffentlichten Fassung) zwar eine allgemeine Definition von KI-Systemen enthält, in der Folge jedoch insbesondere Regelungen für bestimmte Risikoklassen solcher Systeme (ansonsten auch etwa für bestimmte KI-Modelle, siehe im Detail Artificial Intelligence Act (AIA)). Im Rahmen des AI Act beziehen sich insbesondere die KI-Kompetenz gemäß Artikel 4 AI Act und die Regelungen über KI-Reallabore auf KI-Systeme im Allgemeinen und nicht auf eine bestimmte Risikoklasse. KI-Systeme, die nicht den ansonsten im AI Act adressierten Risikoklassen zuzuordnen bzw von entsprechenden (AI Act-)Regelungen erfasst sind, wären demnach jedoch zum Teil auch im Rahmen des Vorschlags zur AILD relevant gewesen. In dem Zusammenhang verweisen die Erwägungsgründe des Vorschlags zur AILD quasi darauf, dass auch bei nicht-Hochrisiko-Systemen bestimmte KI-Merkmale, wie Autonomie und Undurchsichtigkeit, zu Beweisschwierigkeiten führen könnten.[16]
Mit dem Richtlinienvorschlag sollte ein Mindestharmonisierungsansatz verfolgt werden, wodurch „es Klägern im Fall eines durch KI-Systeme verursachten Schadens“ ermöglicht werden sollte „sich auf günstigere Vorschriften des nationalen Rechts zu berufen“ (Erwägungsgrund 14).[17] Weiters sollte die vorgeschlagene Richtlinie quasi nur bestimmte ergänzende Regelungen für die zivilrechtliche (nicht strafrechtliche), verschuldensabhängige, außervertragliche Haftung für durch KI-Systeme verursachten Schäden in Bezug auf die bestehenden Haftungssysteme einführen.[18] Nach Erwägungsgrund 24 Vorschlag AILD sind dabei "[i]n Bereichen, die nicht durch das Unionsrecht harmonisiert sind, [...] weiterhin nationale Rechtsvorschriften [...]" einschlägig.
In Bezug auf entsprechende Verschuldenshaftungen hält Erwägungsgrund 3 im Allgemeinen auch Folgendes fest, was gewissermaßen als Ausgangsbasis für die Regelungen des Vorschlags zur AILD zu sehen ist:
„Wenn ein Geschädigter für einen entstandenen Schaden Schadensersatz verlangt, so muss er nach den allgemeinen Vorschriften der Mitgliedstaaten für die verschuldensabhängige Haftung in der Regel eine fahrlässige oder vorsätzliche schädigende Handlung oder Unterlassung („Verschulden“) der Person, die potenziell für diesen Schaden haftbar ist, sowie einen ursächlichen Zusammenhang zwischen diesem Verschulden und dem betreffenden Schaden nachweisen.“ (Hervorhebungen hinzugefügt)
Der eingeschränkte Anwendungsbereich wurde konkret insbesondere durch Artikel 1 sowie die Definition von Schadenersatzansprüchen, auf die sich die Richtlinie beziehen sollte (Artikel 2 Ziffer 5 Vorschlag AILD), umgesetzt. Diese Definition umfasste demnach: „einen außervertraglichen verschuldensabhängigen zivilrechtlichen Anspruch auf Ersatz des Schadens, der durch ein Ergebnis eines KI-Systems oder aber dadurch, dass dieses System das von ihm erwartete Ergebnis nicht hervorgebracht hat, verursacht wurde“.
Auch Beklagte und Kläger bzw potenzielle Kläger wurden im Richtlinienvorschlag entsprechend definiert (Artikel 2 Ziffern 6 bis 8 Vorschlag AILD). Beklagte sollten demnach Personen sein, „gegen die ein Schadensersatzanspruch geltend gemacht wird“ (Artikel 2 Ziffer 8 Vorschlag AILD). Die Definition von Kernbegriffen, wie Verschulden, bzw die Regelung von allgemeinen Aspekten der Haftung sollte dabei aber prinzipiell (anderen) Vorschriften des Unions- bzw nationalen Rechts überlassen werden.[19]
Kausalitätsvermutung (Artikel 4)
Artikel 4 sollte als einen zentralen Aspekt der Richtlinie eine widerlegbare Kausalitätsvermutung regeln. Unter gewissen Voraussetzungen sollte dadurch zwecks der Anwendung von Haftungsvorschriften in Bezug auf erfasste Schadenersatzansprüche ein Kausalzusammenhang „zwischen dem Verschulden des Beklagten und dem vom KI-System hervorgebrachten Ergebnis oder aber der Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat“ vermutet werden (Artikel 4 Absatz 1 Vorschlag AILD).
Die wesentlichen Voraussetzungen sollten dabei prinzipiell sein, dass der Kläger nachweist, "dass ein Verschulden seitens des Beklagten oder einer Person, für deren Verhalten der Beklagte verantwortlich ist, vorliegt, da gegen [...]" gewisse einschlägige Sorgfaltspflichten verstoßen wurde (Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD), sowie dass das Ergebnis oder Nicht-Ergebnis des KI-Systems zu dem entsprechenden Schaden geführt hat (Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Unter "Sorgfaltspflicht" verstand Artikel 2 Ziffer 9 Vorschlag AILD zunächst prinzipiell "einen im nationalen Recht oder im Unionsrecht festgelegten Verhaltensmaßstab, der einzuhalten ist, um eine Beeinträchtigung von im nationalen Recht oder im Unionsrecht anerkannten Rechtsgütern, einschließlich Leben, körperlicher Unversehrtheit, Eigentum und Wahrung der Grundrechte, zu vermeiden". Siehe zu entsprechenden Einschränkungen sogleich.
Im Kontext von Hochrisiko-KI sollte bei einem Verstoß gegen eine Anordnung zur Offenlegung oder Sicherung von entsprechenden Beweismitteln gemäß Artikel 3 Absatz 5 Vorschlag AILD ein Sorgfaltspflichtverstoß auch vermutet werden können (siehe Offenlegungspflicht (Artikel 3)), was wiederum auch für die Kausalitätsvermutung einschlägig gewesen wäre (siehe Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD). Dabei ist allerdings nicht ganz klar, ob nur der (objektive) Pflichtenverstoß oder auch ein (subjektives) Verschulden vermutet werden sollte, weil sich Artikel 3 Absatz 5 (nur) auf einen Verstoß gegen einschlägige Sorgfaltspflichten bezieht, während Artikel 4 Absatz 1 Buchstabe a davon gesprochen hat, dass "gemäß Artikel 3 Absatz 5" vermutet werden soll, "dass ein Verschulden [...] vorliegt".[20]
Für die Anwendbarkeit der Kausalitätsvermutung musste zudem auf „der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden" können, "dass das Verschulden das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat“ (Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD). Nach Erwägungsgrund 25 Vorschlag AILD sollte dies etwa im Fall gegeben sein, dass das "Verschulden in einer Verletzung einer Sorgfaltspflicht in Bezug auf die Begrenzung des Betriebsbereichs des KI-Systems besteht und der Schaden außerhalb des Betriebsbereichs eingetreten ist". Demgegenüber wäre die Voraussetzung demnach "bei einem Verstoß gegen eine Verpflichtung, bestimmte Dokumente bei einer bestimmten Behörde einzureichen oder sich bei einer bestimmten Behörde zu registrieren, obwohl dies für die betreffende bestimmte Tätigkeit vorgesehen oder sogar ausdrücklich für den Betrieb eines KI-Systems gelten könnte, [...]" nicht erfüllt.
Die wesentliche Konsequenz der Kausalitätsvermutung wäre demnach eine gewisse gedankliche Verlagerung des (Nicht-)Resultats einer KI hin zu einer entsprechenden Handlung oder Unterlassung einer Person (für die Zwecke der einschlägigen Haftung dieser Person) gewesen.
Für die Anwendung der Vermutung waren allerdings noch weitere Einschränkungen vorgesehen:
- Hinsichtlich der dabei relevanten Sorgfaltspflichten sollten im Allgemeinen nur solche erfasst sein, deren unmittelbarer Zweck die Verhinderung des eingetretenen Schadens ist.
- Hinsichtlich Hochrisiko-KI-Systemen, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, sollten jedenfalls bezüglich deren Anbietern und Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen, dabei nur bestimmte Anforderungen nach dem AI Act(-Vorschlag) in Frage kommen, wie etwa die Konzeption und Entwicklung gemäß den Transparenzanforderungen des AI Act(-Vorschlags)[21]. Zudem sollten dabei "die im Rahmen des Risikomanagementsystems unternommenen Schritte und dessen Ergebnisse" Berücksichtigung finden (jeweils Artikel 4 Absatz 2 Vorschlag AILD; siehe auch Erwägungsgrund 26 Vorschlag AILD).
- In Hinblick auf Nutzer von Hochrisiko-KI, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, war prinzipiell eine ähnliche Regelung vorgesehen (Artikel 4 Absatz 3 Vorschlag AILD). Allerdings ging aus dieser nicht so eindeutig hervor, inwieweit die entsprechende Aufzählung von Anforderungen nach dem AI Act-Vorschlag, deren Verletzung für die Kausalitätsvermutung einschlägig wäre, abschließend sein sollte, insbesondere weil dabei kein „nur“ (oder eine ähnliche Klarstellung) verwendet wurde. zieht man die Erwägungsgründe (insbesondere 24 und 26) des Vorschlags AILD zur Auslegung heran, sollte dieser Regelungsvorschlag aber wohl so zu verstehen sein, dass neben den aufgezählten Pflichten gemäß dem AI Act(-Vorschlag) prinzipiell auch “andere im Unionsrecht oder im nationalen Recht festgelegte Sorgfaltspflichten” für solche Nutzer in Frage gekommen wären, im Hinblick auf den AI Act-Vorschlag aber nur die aufgezählten.[22]
- Sofern das betreffende KI-System durch den Beklagten „im Rahmen einer persönlichen nicht beruflichen Tätigkeit verwendet“ wird, wäre die Vermutung im Allgemeinen nur dann anwendbar gewesen, „wenn der Beklagte die Betriebsbedingungen des KI-Systems wesentlich verändert hat oder wenn er verpflichtet und in der Lage war, die Betriebsbedingungen des KI-Systems festzulegen, und dies unterlassen hat“ (Artikel 4 Absatz 6 Vorschlag AILD).
Die Vermutung hätte zudem vom Beklagten widerlegt werden können (Artikel 4 Absatz 7 Vorschlag AILD).
Offenlegungspflicht (Artikel 3)
Die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD sollte sich auf einschlägige Beweismittel zu bestimmten Hochrisiko-KI-Systemen, die einen Schaden verursacht haben sollen, beziehen, die wiederum Anbietern, Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen, oder Nutzern vorliegen (Artikel 3 Absatz 1 Vorschlag AILD). In Hinblick auf die Beschränkung auf Hochrisiko-KI-Systeme ist insbesondere auf Erwägungsgrund 18 des Vorschlags AILD zu verweisen.
Dabei sollten nämlich diejenigen zur Offenlegung verpflichtet werden, die relevante Beweismittel – etwa aufgrund entsprechender Dokumentationspflichten gemäß AI Act(-Vorschlag) – innehaben (vgl Erwägungsgrund 16 Vorschlag AILD). Erwägungsgrund 16 Vorschlag AILD hielt zum Hintergrund zudem fest: "Der Zugang zu Informationen über bestimmte Hochrisiko-KI-Systeme, bei denen der Verdacht besteht, dass sie einen Schaden verursacht haben, ist ein wichtiger Faktor für die Feststellung, ob Schadensersatzansprüche geltend gemacht werden können, und für die Begründung derselben".
Zur Geltendmachung berechtigt – durch Antrag bei den entsprechenden nationalen Gerichten – wären gemäß Artikel 3 Absatz 1 Vorschlag AILD grundsätzlich entsprechende Kläger und potenzielle Kläger (vgl erneut Artikel 2 Ziffern 6 und 7 Vorschlag AILD) gewesen. Dabei hätte aber der Unterschied bestanden, dass potenzielle Kläger nur dann erfasst gewesen wären, wenn sie die betreffende Person zuvor vergeblich zur Offenlegung aufgefordert haben.[23] Weiters müssten diese „[z]ur Stützung seines Antrags [...] die Plausibilität [...] [ihres] Schadensersatzanspruchs durch die Vorlage von Tatsachen und Beweismitteln ausreichend belegen“ (jeweils Artikel 3 Absatz 1 Vorschlag AILD), während (tatsächliche) Kläger als Voraussetzung für die gerichtliche Anordnung in Verbindung mit einem einschlägigen Schadenersatzanspruch „alle angemessenen Anstrengungen unternommen“ haben müssten, „die einschlägigen Beweismittel vom Beklagten zu beschaffen“ (Artikel 3 Absatz 2 Vorschlag AILD).
Erwägungsgrund 17 Vorschlag AILD hielt in diesem Kontext (tendenziell im Zusammenhang mit potenziellen Klägern) auch fest: „Die Anordnung der Offenlegung sollte zu einer Vermeidung unnötiger Rechtsstreitigkeiten und Kosten, die durch ungerechtfertigte oder wahrscheinlich erfolglose Ansprüche verursacht werden, für die jeweiligen Prozessparteien führen“.
Die Offenlegung sollte schließlich durch die entsprechenden nationale Gericht angeordnet werden.[24] Dabei wären gemäß die Erforderlichkeit und Verhältnismäßigkeit zu beachten gewesen, wobei die Interessen aller Parteien (inklusive betroffener Dritter), wie insbesondere in Hinblick auf Geschäftsgeheimnisse im Sinne des Artikels 2 Absatz 1 der Richtlinie (EU) 2016/943, zu berücksichtigen gewesen wären (siehe im Detail Artikel 3 Absatz 4 Vorschlag AILD).[25]
Dabei sollten die Mitgliedstaaten den jeweiligen nationalen Gerichten Befugnisse für die Anordnung spezifischer Maßnahmen zur entsprechenden Beweismittelsicherung zugestehen (Artikel 3 Absatz 3 Vorschlag AILD) und jeweils angemessene Rechtsbehelfe gegen Anordnungen zur Offenlegung oder Beweismittelsicherung für die Personen vorsehen, gegen die diese ergehen (Artikel 3 Absatz 4 letzter Satz).
Für den Fall, dass ein entsprechender Beklagter "im Rahmen eines Schadensersatzanspruchs" einer entsprechenden gerichtlichen Anordnung zur Beweismitteloffenlegung oder -sicherung nicht nachkommt, ordnete Artikel 3 Absatz 5 Vorschlag AILD schließlich die Vermutung für das jeweilige Gericht an, „dass der Beklagte gegen seine einschlägige Sorgfaltspflicht verstößt" (Hervorhebungen hinzugefügt). Das sollte insbesondere dann schlagend werden, wenn die entsprechend geforderten Beweismittel Umstände rund um die Verletzung jener AI Act-Anforderungen durch Nutzer bzw Anbieter und Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen, im Zusammenhang mit Hochrisiko-KI nachweisen sollen, die gemäß Artikel 4 Absatz 2 bzw 3 für die Kausalitätsvermutung nach dem Vorschlag AILD relevant wären. Vgl zu dieser Vermutung auch schon oben unter Kausalitätsvermutung (Artikel 4).
Produkthaftungsrichtlinie neu
Allgemeines und Übergangsbestimmungen
Neben dem Vorschlag zur AILD enthielt auch schon der Vorschlag für eine neue Produkthaftungsrichtlinie Aspekte, die für die Haftung im Zusammenhang mit KI relevant sind.[26] Dieser Vorschlag, der auf eine Ersetzung der aus den 1980ern stammenden, alten Produkthaftungsrichtlinie[27] abzielte, wurde prinzipiell als Paket mit dem Vorschlag für die AILD schon 2022 von der Kommission vorgelegt.[28]
Im Gegensatz zur AILD wurde die neue Produkthaftungsrichtlinie (im Folgenden: PHRL neu) aber mittlerweile bereits im Amtsblatt veröffentlicht worden und 2024 prinzipiell in Kraft getreten.[29]
Die PHRL neu gilt allerdings erst für Produkte, die nach dem 9. 12. 2026 in Verkehr gebracht oder in Betrieb genommen werden (Artikel 2 Absatz 1 PHRL neu). Die Mitgliedstaaten müssen diese demnach bis zum 9. 12. 2026 in nationales Recht umsetzen (Artikel 22 Absatz 1 PHRL neu). Mit Wirkung vom 9. 12. 2026 wird grundsätzlich auch die alte Produkthaftungsrichtlinie aufgehoben, wenngleich diese auch weiterhin für Produkte gelten soll, die "vor diesem Zeitpunkt in Verkehr gebracht oder in Betrieb genommen wurden" (Artikel 21 PHRL neu).
Schon die alte Produkthaftungsrichtlinie regelt prinzipiell eine verschuldensunabhängige Haftung im Zusammenhang mit fehlerhaften Produkten für bestimmte davon zu unterscheidende Schäden, wobei die Haftung vorrangig den Produkthersteller trifft.[30] Dies ist im Wesentlichen auch Kern der PHRL neu, sie bringt allerdings auch eine Reihe von Neuerungen bzw Adaptionen mit sich, die insbesondere auch KI betreffen. Neben Produkten im digitalen Zeitalter sollte die PHRL neu insbesondere auch etwa die Kreislaufwirtschaft berücksichtigen.[31]
Neuer Produktbegriff und grundlegender Regelungsgegenstand
Im Rahmen der alten Rechtslage gab es umfassende Unklarheiten (bzw potenzielle Regelungslücken) in Hinblick darauf, inwieweit Software vom Produktbegriff erfasst ist.[6] Daraufhin sollte Software (bzw insbesondere auch KI) in den Produktbegriff aufgenommen werden.[32] Der schlussendlich beschlossene, neue Produktbegriff umfasst im Detail jetzt alle beweglichen Sachen, selbst wenn diese in andere bewegliche oder unbewegliche Sachen integriert oder mit diesen verbunden sind, und explizit auch Software, Elektrizität, digitale Konstruktionsunterlagen und Rohstoffe (Artikel 4 Ziffer 1 PHRL neu). Nach Erwägungsgrund 13 PHRL neu sind unter Software auch etwa KI-Systeme zu verstehen.[33] Mit der Adressierung von Software wurde dabei wohl Technologieneutralität bezweckt.[34]
Trotz der Neufassung des Produktbegriffs ergeben sich allerdings Auslegungsfragen hinsichtlich der Anwendbarkeit der PHRL neu. So soll im Rahmen der PHRL neu in gewisser Weise prinzipiell auch für Komponenten gehaftet werden (vgl im Detail insbesondere Artikel 8 Absatz 1, Artikel 11 PHRL neu), worunter körperliche oder nicht-körperliche Gegenstände, Rohstoffe oder verbundene Dienste verstanden werden, die in ein Produkt integriert oder damit verbunden sind (Artikel 4 Ziffer 4 PHRL neu). Mit verbundenen Diensten sind digitale Dienste gemeint, welche derart in ein Produkt integriert oder mit diesem verbunden sind, dass dieses ohne sie (eine oder mehrere seiner) Funktionen nicht erfüllen könnte (Artikel 4 Ziffer 3 PHRL neu). Dies ist vor allem deswegen relevant, weil nach Erwägungsgrund 17 PHRL neu prinzipiell Dienstleistungen per se nicht von der Richtlinie umfasst sein sollten. Daher könnten sich in der Folge voraussichtlich schwierige Abgrenzungsfragen, insbesondere in Hinblick auf tatbestandsmäßige potenzielle Auswirkungen auf die Funktionsweise des Produkts, stellen.[35]
Zudem wird in Erwägungsgrund 13 PHRL neu in Bezug auf Software wiederum angemerkt, dass diese „unabhängig von der Art ihrer Bereitstellung oder Nutzung“, demnach „unabhängig davon, ob die Software auf einem Gerät gespeichert oder über ein Kommunikationsnetz oder Cloud-Technologien abgerufen oder durch ein Software-as-a-Service-Modell bereitgestellt wird“ als Produkt erfasst sein sollte. Daraus könnten sich demnach wiederum Abgrenzungsfragen in Hinblick auf Dienstleistungen ergeben, die mit Software verbunden sind. Außerdem sollen digitale Dateien laut Erwägungsgrund 16 PHRL neu per se keine Produkte darstellen (abgesehen von gewissen digitale Konstruktionsunterlagen). Weiters sollen laut Erwägungsgrund 13 PHRL neu auch Informationen nicht als Produkt zu sehen sein. Die Produkthaftungsregelungen sollten demnach „nicht für den Inhalt digitaler Dateien wie Mediendateien oder E-Books oder den reinen Quellcode von Software gelten“. In dem Zusammenhang scheint in der Folge aber überlegenswert, inwieweit das auch Komponenten betreffen soll, also inwiefern etwa Sourcecode, oder auch Trainingsdaten für eine KI, eine (fehlerhafte) Komponente eines Softwareprodukts darstellen könnten.[36]
Eine wichtige Voraussetzung für die Haftung ist die Fehlerhaftigkeit (eines Produkts bzw einer Komponente[37]), die in Artikel 7 PHRL neu in Hinblick auf Produkte[38] prinzipiell damit umschrieben wird, dass das Produkt "nicht die Sicherheit bietet", die Personen erwarten dürfen oder die von Unions- oder nationalem Recht gefordert wird. Artikel 7 Absatz 2 PHRL neu regelt in der Folge, dass sämtliche Umstände bei dieser Beurteilung Berücksichtigung finden müssen und zählt dazu einige Aspekte auf, wie auch etwa die "einschlägigen Anforderungen an die Produktsicherheit, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen" (Buchstabe f). Dazu ist allerdings anzumerken, dass die Fehlerhaftigkeit des Produkts vermutet werden soll, wenn der Kläger nachweist, dass das Produkt verbindliche Produktsicherheitsanforderungen gemäß Unions- oder nationalem Recht nicht erfüllt, sofern diese den Schutz vor dem Risiko des Schadens, den die geschädigte Person erlitten hat, gewährleisten sollen (Artikel 10 Ansatz 2 Buchstabe b PHRL neu). Siehe weiters noch unter Synergien; AI Act und PHRL neu.
Die Frage, wer welche Schäden geltend machen kann, wird insbesondere in den Artikeln 5 und 6 der PHRL neu adressiert. Demnach soll zunächst grundsätzlich „jede natürliche Person, die einen durch ein fehlerhaftes Produkt verursachten Schaden erleidet", einen Schadenersatzanspruch gemäß der PHRL neu haben, wobei dieser auch durch gewisse andere Personen geltend gemacht werden können soll (vgl im Detail Artikel 5 PHRL neu). Dabei sollen lediglich folgende Kategorien von Schäden grundsätzlich ersetzt werden (Artikel 6 Absatz 1 PHRL neu):
- Tod oder Körperverletzung, einschließlich medizinisch anerkannter Beeinträchtigungen der psychischen Gesundheit
- Beschädigung oder Zerstörung von Sachen, außer:
- das fehlerhafte Produkt selbst
- ein Produkt, das durch eine fehlerhafte Komponente dieses Produkts beschädigt wurde, die vom Hersteller des Produkts oder unter der Kontrolle dieses Herstellers in das Produkt integriert oder mit diesem verbunden wurde
- Sachen, die ausschließlich für berufliche Zwecke verwendet werden
- Vernichtung oder Beschädigung von Daten, die nicht für berufliche Zwecke verwendet werden
Dabei sind insbesondere sich daraus ergebende Vermögensschäden abgedeckt (Artikel 6 Absatz 2 erster Satz PHRL neu). Zudem sollen aber auch entsprechende immaterielle Schäden abgedeckt werden, "soweit für Schäden dieser Art nach nationalem Recht eine Entschädigung verlangt werden kann" (Artikel 6 Absatz 2 zweiter Satz PHRL neu).Die PHRL neu enthält im Gegensatz zur alten Produkthaftungsrichtlinie auch keinen Selbstbehalt für Sachschäden mehr.[39]
Welcher Wirtschaftsakteur in weiterer Folge für entsprechende Schäden haftbar gemacht werden kann, wird im Detail vor allem in Artikel 8 PHRL neu geregelt. Dies betrifft insbesondere die Hersteller der fehlerhaften Produkte und die Hersteller von fehlerhaften Komponenten, die "unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden"[40] wurden und dessen Fehlerhaftigkeit verursacht haben (Artikel 8 Absatz 1 Unterabsatz 1 Buchstaben a und b PHRL neu). Zudem soll die Haftung des Produktherstellers nach Artikel 8 Absatz 1 Unterabsatz 1 Buchstabe a PHRL neu auch Schäden umfassen, "die durch eine fehlerhafte Komponente verursacht werden, wenn diese unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden wurde".[41] Daneben sollen unter Umständen auch weitere Personen in Haftung genommen werden können (siehe im Detail Artikel 8 Absatz 2 und folgende PHRL neu).
Die verschiedenen Akteure werden grundsätzlich in Artikel 4 PHRL neu definiert, so etwa der Hersteller in Ziffer 10[42]. Im Übrigen sollen nach Erwägungsgrund 13 PHRL neu etwa die Anbieter von KI-Systemen im Sinne des AI Act als Hersteller gelten.
Für KI spezifisch relevante Regelungen
Die PHRL neu enthält auch im Zusammenhang mit KI spezifisch relevante Regelungen (abseits des entsprechend konkretisierten Anwendungsbereichs). In Verbindung mit KI besonders relevant sind nach der Begründung des Richtlinienvorschlags und den Erwägungsgründen der PHRL neu folgend insbesondere bestimmte Beweiserleichterungen gemäß Artikel 10 PHRL neu und gewisse Haftungsszenarien, die sich aus Artikel 11 PHRL neu ergeben.[43]
spezifisch relevante Beweiserleichterungen gemäß Artikel 10 PHRL neu: Prinzipiell soll der Kläger die Fehlerhaftigkeit des Produkts, den erlittenen Schaden und den Kausalzusammenhang zwischen jener Fehlerhaftigkeit und jenem Schaden zu beweisen haben (Artikel 10 Absatz 1 PHRL neu). In Artikel 10 Absatz 4 PHRL neu sind allerdings gewisse Beweiserleichterungen insbesondere in Hinblick auf komplexe Fälle geregelt worden, zu denen nach der Begründung des Richtlinienvorschlags auch "bestimmte Fälle im Zusammenhang mit KI-Systemen gehören könnten", was sich zudem in den Erwägungsgründen der PHRL neu widerspiegelt.[44] Voraussetzung dafür soll nunmehr einerseits sein, dass der Kläger "insbesondere aufgrund der technischen oder wissenschaftlichen Komplexität" übermäßige Schwierigkeiten damit hat, „die Fehlerhaftigkeit des Produkts oder den ursächlichen Zusammenhang zwischen dessen Fehlerhaftigkeit und dem Schaden oder beides zu beweisen [...]" (Artikel 10 Absatz 4 Buchstabe a PHRL neu). Andererseits müsste der Kläger nachgewiesen haben, „dass das Produkt fehlerhaft ist oder dass ein ursächlicher Zusammenhang zwischen der Fehlerhaftigkeit des Produkts und dem Schaden besteht, oder beides". Zudem müssten diese Voraussetzungen trotz der Offenlegung von Beweismitteln gemäß Artikel 9 PHRL neu bzw "unter Berücksichtigung aller relevanten Umstände des Falles" vorliegen (Artikel 10 Absatz 4 PHRL neu). Erwägungsgrund 48 PHRL neu nennt als Kriterien für die technische oder wissenschaftliche Komplexität beispielsweise "die Komplexität der verwendeten Technologie" (und dabei etwa maschinelles Lernen) und die "die Komplexität der vom Kläger zu analysierenden Informationen und Daten und die Komplexität des ursächlichen Zusammenhang"[45], was auch mit der potenziell geforderten Erläuterung der Funktionsweise von KI-Systemen in Verbindung gebracht wird. Die Vermutungen und Annahmen nach Artikel 10 Absätze 2-4 PHRL neu sollen schließlich gemäß dessen Absatz 5 vom Beklagten widerlegbar sein.
spezifisch relevante Haftungsszenarien gemäß Artikel 11 PHRL neu: Artikel 11 PHRL neu enthält demgegenüber im Allgemeinen Regelungen darüber, wann sich jene Wirtschaftsakteure, die nach Artikel 8 PHRL prinzipiell haftbar sein sollen, jeweils von einer Haftung freibeweisen können sollen. Dies betrifft unter anderem den Fall, dass der betreffende Wirtschaftsakteur beweist, "dass es wahrscheinlich ist, dass die Fehlerhaftigkeit, die den Schaden verursacht hat, zum Zeitpunkt des Inverkehrbringens, der Inbetriebnahme oder — bei einem Lieferanten — des Bereitstellens auf dem Markt noch nicht bestanden hat oder dass diese Fehlerhaftigkeit erst nach dem betreffenden Zeitpunkt entstanden ist" (Artikel 11 Absatz 1 Buchstabe c PHRL neu). Wiederum in Bezug darauf enthält Artikel 11 Absatz 2 PHRL neu allerdings Ausnahmen, im Rahmen derer entsprechende Wirtschaftsakteure dennoch prinzipiell haftbar bleiben sollen. Diese beziehen sich darauf, dass die Fehlerhaftigkeit eines Produkts einen der Gründe hat, die in der Bestimmung genannt werden, sofern der jeweilige Grund zudem der Kontrolle des Herstellers untersteht. Die aufgezählten Ursachen umfassen unter anderem verbundene Dienste und Software (inklusive Software-Updates oder -Upgrades) sowie wesentliche Änderungen des Produkts, die wiederum im Detail in Artikel 4 Ziffer 18 PHRL neu definiert werden. Die Erwägungsgründe verweisen in Zusammenhang damit wiederum etwa auf maschinelles Lernen bzw fortlaufend lernende KI-Systeme.[46]
Gemäß Artikel 8 Absatz 2 soll zudem im Allgemeinen "[j]ede natürliche oder juristische Person, die ein Produkt außerhalb der Kontrolle des Herstellers wesentlich verändert und es anschließend auf dem Markt bereitstellt oder in Betrieb nimmt" (Hervorhebungen hinzugefügt), in Hinblick auf die Regelung haftbarer Wirtschaftsakteure nach Artikel 8 Absatz 1 PHRL neu als entsprechender Produkthersteller gelten.[47]
Sonstiges (Auswahl)
Artikel 9 PHRL neu sieht Offenlegungspflichten für bestimmte Beweismittel vor, was in Erwägungsgrund 42 PHRL neu mitunter wiederum mit (insbesondere technischer und wissenschaftlicher) Komplexität in Verbindung gebracht wird (vgl dazu schon oben).
Gemäß Artikel 12 Absatz 1 PHRL neu sollen im Falle zweier bzw mehrerer für denselben Schaden haftbarer Wirtschaftsakteure diese prinzipiell solidarisch haftbar gemacht werden können (vgl im Detail Artikel 12 PHRL neu). Die Haftung von Wirtschaftsakteuren nach der PHRL neu soll gemäß deren Artikel 15 weiters grundsätzlich nicht vertraglich oder durch nationales Recht ausgeschlossen oder beschränkt werden können. Gemäß Artikel 12 Absatz 2 PHRL neu kann unter Umständen aber ein Haftungsrückgriff von Produktherstellern auf bestimmte Softwarekomponentenhersteller vertraglich ausgeschlossen werden.[48]
Synergien
Vorschläge für AI Act, AILD und PHRL neu
- Der Vorschlag für eine AILD und der Vorschlag für eine neue Produkthaftungsrichtlinie zielten prinzipiell auf verschiedene Anwendungsfälle bzw Haftungsarten ab, sollten sich als Paket jedoch dementsprechend ergänzen.[49]
- Zudem waren die entsprechenden Bestrebungen der Kommission im Haftungsbereich als Paket mit dem Vorschlag für den AI Act zu sehen.[50]
AI Act und Vorschlag AILD
- Insbesondere durch die Heranziehung gewisser Begrifflichkeiten aus dem AI Act(-Vorschlag), aber auch durch die Heranziehung entsprechender Sorgfaltspflichten für die Voraussetzungen der Kausalitätsvermutung gemäß Vorschlag AILD (siehe im Detail: Kausalitätsvermutung (Artikel 4)) hätten sich bei der AILD gegebenenfalls auch einschlägige Synergien mit dem AI Act ergeben.
- Umgekehrt können aus der Interpretation gewisser Anforderungen nach dem AI Act(-Vorschlag) durch den Vorschlag für die AILD auch gewisse Ansatzpunkte für die Auslegung des AI Acts gewonnen werden: Denn nach dem Vorschlag AILD sollten, um die Kausalitätsvermutung gemäß deren Artikel 4 auszulösen (wie schon oben im Detail dargestellt), prinzipiell nur Verstöße gegen solche Sorgfaltspflichten einschlägig sein, „deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern“.[51] Weiters sollten dabei hinsichtlich Hochrisiko-KI-Systemen, für die gewisse Anforderungen nach dem AI Act(-Vorschlag) gelten, jedenfalls in Hinblick auf deren Anbieter bzw Personen, die Anbieter-Pflichten gemäß AI Act(-Vorschlag) unterliegen, wiederum nur bestimmte, abschließend (vgl: “nur”) aufgezählte Pflichten nach dem AI Act-Vorschlag einschlägig sein.[52] Erwägungsgrund 22 Vorschlag AILD nannte zudem explizit regulatorische Erfordernisse, die nicht auf einen Schutz vor entsprechenden Schäden abzielen sollen (was sich wohl insbesondere auch auf den AI-Act-Vorschlag beziehen sollte[53]), indem dieser festhielt: „Verstöße gegen Sorgfaltspflichten, deren unmittelbarer Zweck nicht darin besteht, den eingetretenen Schaden zu verhindern, führen nicht zur Geltung der Vermutung; wenn beispielsweise ein Anbieter die erforderlichen Unterlagen nicht bei den zuständigen Behörden einreicht, würde dies bei Schadensersatzansprüchen aufgrund von Personenschäden nicht zur Geltung der Vermutung führen“[54]. Demnach scheint die EU-Kommission im Vorschlag AILD zumindest teilweise nur manche AI Act-(Vorschlag)-Pflichten als Sorgfaltspflicht, deren unmittelbarer Zweck die Verhinderung des eingetretenen Schadens ist, interpretiert zu haben. Das könnte wiederum Auswirkungen auf die Auslegung von AI Act-Regelungen als schadenersatzbegründende Schutzgesetze im Sinne des § 1311 ABGB[55] (und damit den Schadenersatz bei Verletzung des AI Acts) haben, wobei Schutzgesetzverletzungen im Zusammenhang mit KI besondere Relevanz zukommt.[56]
AI Act und PHRL neu
- Im Rahmen der neuen Produkthaftungsrichtlinie wurde explizit auf den AI Act Bezug genommen, indem in Erwägungsgrund 13 PHRL neu festgehalten wurde, dass "Entwickler oder Hersteller von Software, einschließlich der Anbieter von KI-Systemen im Sinne [...]" des AI Acts als Hersteller (im Sinne der PHRL neu) erachtet werden sollten. Darüber hinaus ist davon auszugehen, dass auch die Bezugnahmen auf KI-Systeme in den Erwägungsgründen der PHRL neu vermutlich im Sinne des AI Acts zu verstehen sind (siehe auch unter Neuer Produktbegriff und grundlegender Regelungsgegenstand).
- Zudem handelt es sich bei den Regelungen des AI Acts wohl mitunter um Produktsicherheitsanforderungen im Sinne des Artikel 7 Absatz 2 Buchstabe f bzw Artikel 10 Absatz 2 Buchstabe b PHRL neu, die wiederum für die Beurteilung der Fehlerhaftigkeit eines KI-Systems im Rahmen der PHRL neu relevant wären.
Fallbeispiele
Im Folgenden sollen anhand einiger vereinfachter Beispiele die Anwendbarkeit und Implikationen der hier relevanten Rechtsakte besprochen werden. Hierbei werden allerdings lediglich die als am naheliegendsten erscheinende Einordnung und Subsumption möglichst vereinfacht und verkürzt dargestellt. Demnach könnten im Detail unter Umständen auch andere (bzw weitere) Ergebnisse erreicht werden. Die folgenden Einordnungen und Subsumption sollen demnach lediglich eine Orientierungshilfe bieten. Zudem ist erneut hervorzuheben, dass Stand Februar 2025 der Vorschlag AILD noch nicht beschlossen (bzw scheinbar verworfen) wurde und die PHRL neu noch in nationales Recht umzusetzen ist, wobei eine endgültige Beurteilung erst dann erfolgen könnte. In Hinblick auf das Zusammenspiel des Vorschlags AILD und dem AI Act(-Vorschlag) ist erneut hervorzuheben, dass sich der Vorschlag AILD auf den damals vorliegenden AI Act-Vorschlag bezogen hat, wobei allerdings einige Aspekte im Laufe des Gesetzgebungsverfahrens des AI Acts verändert wurden (siehe schon Allgemeines und Anwendungsbereich).
Beispiel 1: KI-gestütztes Kreditscoring
Sachverhalt | Das Ergebnis eines KI-Systems, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.
Durch die Trainingsdaten, die dem System zugrunde lagen, wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären. |
---|---|
Einordnung AI Act | Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Ziffer 5 Buchstabe b AI Act vor (siehe im Detail Hochrisiko-KI-Systeme im AI Act). |
Einordnung Vorschlag AI Liability Directive | In Hinblick auf die diskriminierende Trainingsdatenbasis würde gegebenenfalls insbesondere in Hinblick auf den Anbieter des Systems die Kausalitätsvermutung gemäß Artikel 4 Vorschlag AILD relevant erscheinen. Durch eine entsprechende Verletzung von (nunmehr) Artikel 10 AI Act (siehe im Detail Anforderungen an Hochrisiko-KI-Systeme) könnte Artikel 4 Absatz 2 Buchstabe a Vorschlag AILD erfüllt werden, wodurch eine der für Hochrisiko-KI-Anbieter taxativ aufgezählten, für die Vermutung einschlägigen Anforderungen betroffen wäre. Demnach erscheint in dem Zusammenhang insbesondere ein entsprechender Schadenersatzanspruch gegen den KI-Anbieter relevant, bei dem die Kausalitätsvermutung prinzipiell unter der Voraussetzung anwendbar wäre, dass der Kläger ein entsprechendes Verschulden des Anbieters[57] sowie, dass das Ergebnis des KI-Kredit-Scorings zu seinem Schaden geführt hat, nachweist, sofern weiters auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden kann, dass das Verschulden das Ergebnis des KI-Kredit-Scorings beeinflusst hat. Nach dem Sachverhalt erscheint zumindest eine Beeinflussung des Scoring-Ergebnisses durch die diskriminierenden Trainingsdaten naheliegend.
Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können. Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre prinzipiell auch die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD einschlägig. Bei entsprechender gerichtlicher Anordnung (siehe zu den Voraussetzungen im Detail unter Offenlegungspflicht (Artikel 3)) müssten demnach einschlägige Beweismittel zu dem Kredit-Scoring-System, die dem Anbieter oder dem Nutzer (/Betreiber) vorliegen, offengelegt werden. Dies würde wohl insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act, vor allem in Hinblick auf die Trainingsdatenbasis relevant sein (vgl insbesondere Erwägungsgründe 16, 18 und 19 Vorschlag AILD; Anforderungen an Hochrisiko-KI-Systeme). Würden die Beweismittel trotz entsprechender gerichtlicher Anordnung nicht offengelegt, sollte ein Sorgfaltspflichtverstoß gemäß Artikel 3 Absatz 5 Vorschlag AILD auch widerlegbar vermutet werden können, was wiederum insbesondere Beweismittel betreffen sollte, die Umstände rund um die Verletzung jener AI Act-Anforderungen durch den KI-Anbieter oder -Nutzer beweisen sollen, die für die Kausalitätsvermutung nach dem Vorschlag AILD relevant sein sollten (vgl Artikel 4 Absätze 2 und 3 Vorschlag AILD). Dies wäre im gegenständlichen Fall wie dargestellt vor allem in Bezug auf den KI-Anbieter (und dessen Pflichten nunmehr gemäß Artikel 10 AI Act) von Relevanz. Diese Vermutung könnte gemäß Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD wiederum auch für die Voraussetzungen der Kausalitätsvermutung bedeutsam sein. |
Einordnung neue Produkthaftungs-RL | Die PHRL neu ist bei reinen (nicht in Artikel 6 adressierten) Vermögensschäden nicht anwendbar (Artikel 6 PHRL neu e contrario; Erwägungsgründe 23 und 24 PHRL neu). |
Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen
Sachverhalt | Ein KI-Chatbotassistent wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) zu einer fehlerhaften Überweisung, indem der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat.[58] |
---|---|
Einordnung AI Act | Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Artikel 5 AI Act, noch ein Hochrisiko-KI-System gemäß Artikel 6 AI Act vorliegen.
Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act einschlägig sein, wobei auf die Interaktion mit einem Chatbot hingewiesen werden muss (siehe im Detail Transparenzpflichten). Je nach Ausgestaltung könnte die Bank die Rolle des Anbieters, des Betreibers des KI-Systems oder beide Rollen zugleich einnehmen. Nach dem Sachverhalt ist insbesondere die Rolle des Betreibers naheliegend. |
Einordnung Vorschlag AI Liability Directive | Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die Kausalitätsvermutung nach dem Vorschlag AILD in einschlägigen Schadenersatzverfahren (insbesondere gegen die Bank oder allenfalls den KI-Anbieter) relevant. Hierbei wäre aber in Hinblick auf den fehlerhaften Assistenz-Chatbot wohl vorrangig zu überlegen, inwieweit insbesondere ein Verschulden der Bank (als wohl jedenfalls Nutzer/Betreiber) bzw des KI-Anbieters oder einer Person vorliegt, für deren Verhalten diese jeweils verantwortlich wären. Dieses hätte im Verstoß gegen eine national- oder unionsrechtlich festgelegte Sorgfaltspflicht liegen, deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern[59] liegen müssen und in der Folge nachgewiesen werden müssen (Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD). Da kein Hochrisiko-KI-System im Sinne des AI Act vorliegt, wäre dies durch Artikel 4 Vorschlag AILD auch nicht derart (siehe etwa Beispiel 1) beschränkt gewesen.[60] Zudem müsste die Kausalität der Übernahme der falschen Überweisungssumme für den geltend gemachten Schaden bewiesen werden (Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Ein möglicher Schaden könnte im Beispiel wohl zumindest in den Kosten dafür bestehen, die fehlerhafte Überweisung rückgängig zu machen.[61] Außerdem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das Verschulden den beschriebenen Fehler des Chatbots beeinflusst hat (Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD). Da kein Hochrisiko-KI-System vorliegt, sollte die Vermutung schließlich nur gelten, "wenn es nach Auffassung des nationalen Gerichts für den Kläger übermäßig schwierig ist", den etwaig zu vermutenden Kausalzusammenhang zu beweisen (Artikel 4 Absatz 5 Vorschlag AILD). Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können.
Da kein Hochrisiko-KI-System vorliegt, wäre die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD nicht anwendbar. Somit könnte auf dieser Basis auch nicht die Vorlage entsprechender Beweismittel geltend gemacht werden, was die beschriebenen Nachweise wohl erschweren würde. |
Einordnung neue Produkthaftungs-RL | Die PHRL neu ist bei reinen (nicht in Artikel 6 adressierten) Vermögensschäden nicht anwendbar (Artikel 6 PHRL neu e contrario; Erwägungsgründe 23 und 24 PHRL neu). |
Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer
Sachverhalt | Ein KI-Assistenzsystem, das standardmäßig auf Betriebssystemebene bei einer bestimmten Marke privater Computer implementiert ist, wird durch eine Nutzerin eines solchen Computers aufgefordert, bestimmte Dateien (Scans von wichtigen privaten Dokumenten) zu suchen.
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das Assistenzsystem einzudringen, sodass dieses die Dateien stattdessen an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht. Variante: Es liegt kein Cyberangriff vor. Bei den von der Nutzerin gesuchten Dateien handelt es sich um Scans von einem Beschluss eines Grundbuchsgerichts zur Löschung eines Pfandrechts. Für die Nutzerin ist weiters nicht erkennbar, dass bei der Eingabe ihrer Suche ein KI-Assistenzsystem aktiv wird. Dieses System interpretiert das Wort „Löschung“ im Suchbefehl als Anweisung, die entsprechenden Dateien direkt zu löschen, was daraufhin auch passiert. |
---|---|
Einordnung AI Act | Für die Nutzerin als Betreiberin liegt vermutlich die "Haushaltsausnahme" vor, wodurch der AI Act nicht zur Anwendung kommt (Artikel 2 Absatz 10 AI Act).
Für den Anbieter: Auch wenn prinzipiell ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Artikel 5 AI Act, noch ein Hochrisiko-KI-System gemäß Artikel 6 AI Act vorliegen. Selbst wenn das Assistenzsystem in einem Hochrisikobereich im Sinne von Anhang III (zB durch Justizbehörden) Verwendung finden würde, könnte eine Ausnahme nach Artikel 6 Absatz 3 AI Act vorliegen, wenn es kein erhebliches Risiko birgt. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act einschlägig sein (siehe im Detail Transparenzpflichten). Dies ist primär davon abhängig, ob man das Assistenzsystem als ein System klassifiziert, das "für die direkte Interaktion mit natürlichen Personen bestimmt" ist. |
Einordnung Vorschlag AI Liability Directive | Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die Kausalitätsvermutung nach dem Vorschlag AILD in einschlägigen Schadenersatzverfahren (wohl insbesondere gegen den KI-Anbieter)[62] relevant. Ähnlich wie in Beispiel 2 wären dabei allerdings der Nachweis eines Verschuldens (insbesondere des Anbieters oder von Personen, für deren Verhalten dieser verantwortlich ist) sowie der Kausalität der Aktionen des Assistenzsystems für den Schaden zu erbringen und wohl fraglich. Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass ein etwaiges Verschulden die beschriebenen Aktionen des Assistenzsystems beeinflusst hat (siehe insgesamt Artikel 4 Absatz 1 Vorschlag AILD).
Da wiederum prinzipiell kein Hochrisiko-KI-System vorliegt, sollte die Vermutung schließlich nur gelten, "wenn es nach Auffassung des nationalen Gerichts für den Kläger übermäßig schwierig ist", den etwaig zu vermutenden Kausalzusammenhang zu beweisen (Artikel 4 Absatz 5 Vorschlag AILD). Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können. Die für die Kausalitätsvermutung geforderten Nachweise wären wiederum auch deswegen fraglich, weil diesfalls die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD nicht anwendbar wäre, weil grundsätzlich kein Hochrisiko-KI-System vorliegt. |
Einordnung neue Produkthaftungs-RL | Die PHRL neu ist zwar bei reinen (nicht in Artikel 6 adressierten) Vermögensschäden nicht anwendbar (Artikel 6 PHRL e contrario; Erwägungsgründe 23 und 24 PHRL neu), allerdings sehr wohl auf Vermögensschäden, die sich aus der "Vernichtung oder Beschädigung von Daten" ergeben, "die nicht für berufliche Zwecke verwendet werden" (Artikel 6 Absatz 2 in Verbindung mit Absatz 1 Buchstabe c PHRL neu). Dies würde nach dem Sachverhalt grundsätzlich zutreffen, jedenfalls sofern sich aus der Löschung der Dokumentdateien ein finanzieller Schaden ergibt. Dieser wäre dann prinzipiell ersatzfähig.
Weiters wären gemäß Artikel 6 Absatz 2 PHRL neu aber auch entsprechende immaterielle Schäden erfasst, soweit diese nach dem nationalen Recht ersatzfähig sind, was sich nach Erwägungsgrund 23 PHRL neu insbesondere auf Schmerzen und Leid beziehen soll. Diesbezüglich ist demnach insbesondere auch die konkrete nationale Umsetzung abzuwarten. Bei dem Assistenzsystem handelt es sich um eine Software und damit grundsätzlich um ein Produkt im Sinne des Artikel 4 Ziffer 1 PHRL neu[63], gleichzeitig liegt aber auch eine Komponente im Sinne des Artikel 4 Ziffer 4 PHRL neu vor (in das Betriebssystem des Computers integrierter/verbundener nicht-körperlicher Gegenstand).[64] In der Folge wäre insbesondere zu überlegen, inwieweit eine Fehlerhaftigkeit des Assistenzsystems die jeweiligen Schäden verursacht hat. Bei der Beurteilung der Fehlerhaftigkeit von Produkten sind gemäß Artikel 7 Absatz 2 PHRL neu grundsätzlich alle Umstände einzubeziehen, was insbesondere auch einschlägige Produktsicherheitsanforderungen, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen, betrifft (Buchstabe f). Daneben sind auch andere Aspekte in Artikel 7 Absatz 2 PHRL neu genannt. Sofern der Kläger den Nachweis erbringen würde, dass das Produkt verbindliche Produktsicherheitsanforderungen des Unions- oder nationalen Rechts verletzt, die vor dem Risiko des erlittenen Schadens schützen sollen, wäre die Fehlerhaftigkeit gemäß Artikel 10 Absatz 2 Buchstabe b sogar zu vermuten. In dem Zusammenhang würden prinzipiell insbesondere Regelungen des AI Act relevant erscheinen. Da die Cybersicherheitsanforderungen gemäß Artikel 15 AI Act nur auf Hochrisiko-KI-Systeme anwendbar sind (siehe Genauigkeit, Robustheit und Cybersicherheit), müsste die Fehlerhaftigkeit diesfalls aber anhand anderer Aspekte bzw Überlegungen hinsichtlich der Sicherheit, die eine Person erwarten darf oder die unions- oder nationalrechtlich vorgeschrieben ist, festgestellt werden. Bei der Variante hingegen liegt nach dem Sachverhalt insbesondere der Schluss nahe, dass etwaig gegebene Informationspflichten gemäß Artikel 50 Absatz 1 AI Act nicht eingehalten wurden. Sofern man davon ausgeht, dass es sich dabei um verbindliche Produktsicherheitsanforderungen handelt, die vor dem Risiko entsprechender Schäden schützen sollen, und die Nutzerin eine entsprechende Verletzung nachweist, wäre die Fehlerhaftigkeit des Assistenzsystems als Produkt demnach zu vermuten. Prinzipiell hätte der Kläger weiters den erlittenen Schaden und den Kausalzusammenhang zwischen diesem und der Fehlerhaftigkeit des Produkts nachzuweisen (Siehe im Detail Artikel 10 PHRL neu). Gegebenenfalls können insbesondere Hersteller von Produkten für deren Fehlerhaftigkeit haftbar gemacht werden (Artikel 8 Absatz 1 Buchstabe a PHRL neu; vgl auch Erwägungsgrund 36 PHRL neu). Dies kann nach Erwägungsgrund 13 PHRL neu insbesondere auch der Anbieter eines KI-Systems gemäß AI Act sein. Unbeschadet dessen trifft die Haftung insbesondere auch den "Hersteller einer fehlerhaften Komponente, wenn diese Komponente unter der Kontrolle des Herstellers in ein Produkt integriert oder damit verbunden wurde und die Fehlerhaftigkeit dieses Produkts verursacht hat" (Artikel 8 Absatz 1 Buchstabe b PHRL neu). Nach dem Sachverhalt ist davon auszugehen, dass das Assistenzsystem unter der Kontrolle des Betriebssystem-Herstellers als Komponente in dieses integriert wurde, wobei das Betriebssystem als Software wiederum ein Produkt darstellen dürfte (vgl Erwägungsgrund 13 PHRL neu). Nach dem Sachverhalt ist weiters wohl davon auszugehen, dass das Betriebssystem wiederum unter der Kontrolle des Computer-Herstellers zur Komponente des Computers als wiederum eigenständiges Produkt im Sinne des Artikel 4 Ziffer 4 PHRL neu wurde. Gegebenenfalls könnte demnach jedenfalls der Anbieter des Assistenzsystems als Produkthersteller haftbar gemacht werden. Sofern das Assistenzsystem aber auch die jeweilige Fehlerhaftigkeit des Betriebssystems bzw des Computers verursacht hat, könnten gegebenenfalls auch deren Hersteller haftbar gemacht werden und unbeschadet dessen wiederum der Anbieter des Assistenzsystems als Komponentenhersteller (vgl Artikel 8 und insbesondere Erwägungsgrund 36 PHRL neu). Je nach den Umständen des Falles kämen aber auch noch andere Wirtschaftsakteure für eine Haftung in Frage (vgl im Detail Artikel 8 PHRL neu). Zwei oder mehrere für denselben Schaden haftbare Wirtschaftsakteure sollen nach Artikel 12 Absatz 1 PHRL neu prinzipiell solidarisch haftbar gemacht werden können (vgl allerdings insbesondere Absatz 2 zum unter Umständen möglichen Regress-Ausschluss). Die Tatsache, dass im Grundfall (auch) die Handlungen eines Angreifers zu entsprechenden Schäden geführt hat, darf die Haftung der jeweiligen Wirtschaftsakteure prinzipiell nicht mindern oder ausschließen (vgl Artikel 13 Absatz 1, Erwägungsgrund 55 PHRL neu). |
Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung
Sachverhalt | Ein KI-System wird in einer Klinik zur Erkennung von Hautkrebs eingesetzt, wobei Bildaufnahmen der entsprechenden Hautstellen analysiert werden. Daraufhin erstellt das System eine vorläufige Diagnose und eine Empfehlung für eine Therapie.
Die Trainingsdaten des Systems bezogen sich jedoch überwiegend auf Personen mit hellerer Hautfarbe, weshalb das System Hautkrebs bei Personen mit dunklerer Hautfarbe seltener erkennt bzw häufiger fehlerhafte Diagnosen und Therapievorschläge erstellt. Im Fall eines Patienten folgt die behandelnde Ärztin den fehlerhaften Empfehlungen ohne ausreichende Prüfung, wodurch der Patient einen körperlichen Schaden erleidet. |
---|---|
Einordnung AI Act | Da das KI-System ein entsprechendes Medizinprodukt nach der Medizinprodukteverordnung darstellt, die in Anhang I Abschnitt A genannt wird, und ein Konformitätsbewertungsverfahren unter Einbindung Dritter durchlaufen muss, handelt es sich um ein Hochrisiko-KI-System im Sinne des Artikel 6 Absatz 1 AI Act.
Auf Seiten des Anbieters wurden insbesondere die Anforderungen an Trainingsdaten gemäß Artikel 10 AI Act verletzt. Grundsätzlich würde die im Sachverhalt genannte Klinik wohl den Betreiber im Sinne des AI Acts darstellen (vgl jedoch die Möglichkeit der Änderung der Rolle). Diesbezüglich könnte eine Verletzung gegen die Pflicht zur menschlichen Aufsicht (Artikel 14 AI Act) vorliegen, wenn der Betrieb des Systems nicht entsprechend überwacht wird. |
Einordnung Vorschlag AI Liability Directive | Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die Kausalitätsvermutung nach dem Vorschlag AILD in einschlägigen Schadenersatzverfahren (wohl insbesondere gegen den KI-Anbieter; unter Umständen auch gegen die Klinik als Nutzer/Betreiber) relevant.
In Bezug auf den KI-Anbieter wäre aber wohl vor allem zu überlegen, inwieweit in Hinblick auf die fehlerhaften Ergebnisse der KI ein Verschulden des KI-Anbieters oder einer Person vorliegt, für deren Verhalten dieser verantwortlich wäre. Dies müsste prinzipiell in der Folge nachgewiesen werden (vgl Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD; siehe auch noch im Folgenden). Dieses Verschulden müsste bei entsprechenden Anbietern von Hochrisiko-KI wiederum in der Verletzung bestimmter Anforderungen des AI Act(-Vorschlag)s begründet sein. Darunter würde gemäß Artikel 4 Absatz 2 Buchstabe a Vorschlag AILD aber prinzipiell auch das Training mit Daten fallen, die nicht entsprechenden Qualitätskriterien des AI Act(-Vorschlags) (nunmehr Artikel 10 AI Act) entsprechen. Weiters müsste auch die Kausalität der fehlerhaften Diagnose bzw Therapieempfehlungen für den geltend gemachten Schaden nachgewiesen werden (vgl Artikel 4 Absatz 1 Buchstabe c Vorschlag AILD). Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das entsprechende Verschulden den beschriebenen Fehler des KI-Systems beeinflusst hat (vgl 4 Absatz 1 Buchstabe b Vorschlag AILD). Nach dem Sachverhalt erscheint zumindest eine Beeinflussung des fehlerhaften KI-Ergebnisses durch die Trainingsdaten naheliegend. Die Vermutung sollte schließlich gemäß Artikel 4 Absatz 7 Vorschlag AILD widerlegt werden können. Im Übrigen hätte das im Sachverhalt beschriebene (potenziell fehlerbehaftete) Verhalten der Ärztin die fehlerhaften Ausgaben des KI-Systems prinzipiell nicht beeinflusst, weil es schließlich erst im Nachhinein (auf Basis ebenjener KI-Ausgaben) erfolgt wäre. Dies wäre wohl wiederum insbesondere bei entsprechenden Schadenersatzforderungen gegen die Klinik als vermutlichen Nutzer (Betreiber) des KI-Systems in Hinblick auf die Kausalitätsvermutung gemäß Vorschlag AILD relevant. Ein etwaiger Verstoß gegen die Pflicht zur Verwendung des (Hochrisiko-)KI-Systems nach seiner Gebrauchsanweisung (als Verstoß gegen dabei einschlägige Sorgfaltspflichten des Nutzers/Betreibers des KI-Systems[65]) hätte aber wohl wiederum einen entsprechenden weiteren Ansatz in diesem Zusammenhang bieten können. Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre prinzipiell auch die Offenlegungspflicht gemäß Artikel 3 Vorschlag AILD einschlägig. Bei entsprechender gerichtlicher Anordnung (siehe zu den Voraussetzungen im Detail unter Offenlegungspflicht (Artikel 3)) müssten demnach einschlägige Beweismittel zu dem Kredit-Scoring-System, die dem Anbieter oder dem Nutzer (/Betreiber) vorliegen, offengelegt werden. Dies würde wohl insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act, vor allem in Hinblick auf die Trainingsdatenbasis relevant sein (vgl insbesondere Erwägungsgründe 16, 18 und 19 Vorschlag AILD; Anforderungen an Hochrisiko-KI-Systeme). Würden die Beweismittel trotz entsprechender gerichtlicher Anordnung nicht offengelegt, sollte ein Sorgfaltspflichtverstoß gemäß Artikel 3 Absatz 5 Vorschlag AILD auch widerlegbar vermutet werden können, was wiederum insbesondere Beweismittel betreffen sollte, die Umstände rund um die Verletzung jener AI Act-Anforderungen durch den KI-Anbieter oder -Nutzer beweisen sollen, die für die Kausalitätsvermutung nach dem Vorschlag AILD relevant sein sollten (vgl Artikel 4 Absätze 2 und 3 Vorschlag AILD). Dies wäre im gegenständlichen Fall wie dargestellt vor allem in Bezug auf den KI-Anbieter (und dessen Pflichten nunmehr gemäß Artikel 10 AI Act) unter Umständen aber eben auch in Hinblick auf die Klinik als Nutzer von Relevanz. Diese Vermutung könnte gemäß Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD wiederum auch für die Voraussetzungen der Kausalitätsvermutung bedeutsam sein. |
Einordnung neue Produkthaftungs-RL | Da es sich bei dem KI-System um eine Software und damit ein Produkt im Sinne des Artikel 4 Ziffer 1 PHRL neu handelt (vgl Erwägungsgrund 13 PHRL neu), wäre die PHRL neu grundsätzlich einschlägig.
Weiters liegt ein nach dieser prinzipiell ersatzfähiger Schaden in Form der Körperverletzung vor (Artikel 6 Absatz 1 Buchstabe a PHRL neu). Anschließend wäre zu überlegen, inwieweit das KI-System fehlerhaft war. Bei der Beurteilung der Fehlerhaftigkeit sind gemäß Artikel 7 Absatz 2 PHRL neu grundsätzlich alle Umstände einzubeziehen, was insbesondere auch einschlägige Produktsicherheitsanforderungen, wie wohl auch (gewisse) Regelungen des AI Act, betrifft (Buchstabe f). Soweit durch die Verletzung der Anforderungen an Trainingsdaten gemäß Artikel 10 AI Act gegen verbindliche unionsrechtliche Produktsicherheitsanforderungen verstoßen wurde, die wohl durchaus vor dem Risiko des erlittenen Schadens schützen sollen[66], wäre die Fehlerhaftigkeit des KI-Systems als Produkt gemäß Artikel 10 Absatz 2 Buchstabe b PHRL neu zu vermuten, wenn der Kläger diesen Verstoß nachweist.[67] Prinzipiell hätte der Kläger außerdem den erlittenen Schaden und den Kausalzusammenhang zwischen diesem und der Fehlerhaftigkeit des Produkts nachzuweisen (Siehe im Detail Artikel 10 PHRL neu). Gegebenenfalls wäre prinzipiell insbesondere der Anbieter des KI-Systems als Hersteller haftbar (vgl Erwägungsgrund 13 PHRL neu). Je nach den Umständen des Falles kämen aber auch andere Wirtschaftsakteure für eine Haftung in Frage (vgl im Detail Artikel 8 PHRL neu). |
Weiterführende Literatur
Versionen der Produkthaftungsrichtlinie
- Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final
- Provisional Agreement Resulting From Interinstitutional Negotiations - Proposal for a directive of the European Parliament and of the Council on Liability for defective products (COM(2022)0495 – C9 0322/2022 – 2022/0302(COD))
- Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024
Fachliteratur und Ähnliches
- Borges, Liability for AI Systems Under Current and Future Law - An overview of the key changes envisioned by the proposal of an EU-directive on liability for AI, Computer Law Review International 1/2023
- European Data Protection Supervisor, Opion 42/2023 on the Porporsals for two Directives on AI liability rules, 11. 10. 2023
- European Parliamentary Research Service, Artificial intelligence liability directive, PE 739.342, February 2023
- European Parliamentary Research Service, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024
- Dötsch, Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023)
- Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107
- Joggerst/Wendt, Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13
- Karner in Bydlinski/Perner/Spitzer, KBB. ABGB. Kommentar zum ABGB7 (2023) § 1294 ABGB, § 1295 ABGB, § 1311 ABGB
- Larcher, Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130
- Wendehorst in Martini/Wendehorst, KI-VO. Verordnung über Künstliche Intelligenz. Kommentar (2024) Art 1
Judikatur
- OGH 3. 8. 2021, 8 ObA 109/20t
Newsbeiträge und Ähnliches
- Imco, New Product Liability Directive, https://www.europarl.europa.eu/committees/en/new-product-liability-directive/product-details/20230417CDT11482(abgerufen am 21. 1. 2025)
- Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024)
- Tom Whittaker, EU AI Liability Directive: An Update, in: Burges Salmon blog, https://blog.burges-salmon.com/post/102jfdv/eu-ai-liability-directive-an-update(abgerufen am 26. 11. 2024)
Einzelnachweise
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2, 3 und 13; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und folgende, Erwägungsgrund 3.
- ↑ Vgl kritisch etwa: European Parliamentary Research Service, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024, Seite 27 mit weiteren Nachweisen.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und 14, Erwägungsgrund 2; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 3, 12 und 13, Erwägungsgründe 9, 10, 23 und 24, Artikel 1.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 1, 2, 13, 15, 16, Erwägungsgründe 22 und 28, Artikel 3(5).
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 5 und folgende, 17.
- ↑ 6,0 6,1 Vgl etwa Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seite 1; European Parliamentary Research Service, Artificial intelligence liability directive, PE 739.342, February 2023, Seite 3; für Österreich etwa: Larcher, Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130 (Seiten 133, 134); für Deutschland etwa: Dötsch, Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023), insbesondere Seiten 276 und folgende; Joggerst/Wendt, Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 6, Erwägungsgrund 12.
- ↑ Siehe: Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final; siehe zum Verfahren auch etwa https://eur-lex.europa.eu/legal-content/EN/HIS/?uri=CELEX%3A52022PC0496 (abgerufen am 18. 2. 2025).
- ↑ Vgl Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024); Tom Whittaker, EU AI Liability Directive: An Update, in: Burges Salmon blog, https://blog.burges-salmon.com/post/102jfdv/eu-ai-liability-directive-an-update(abgerufen am 26. 11. 2024).
- ↑ European Parliamentary Research Service, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment, PE 762.861, September 2024; siehe auch Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive(abgerufen am 26. 11. 2024).
- ↑ Annexes to the Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Commitee of the Regions, Commission work programme 2025 Moving forward together. A Bolder, Simpler, Faster Union, COM(2025) 45 final, https://commission.europa.eu/strategy-and-policy/strategy-documents/commission-work-programme/commission-work-programme-2025_en.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 13-16; Grundsätzlich konnte auch die Vermutung von Sorgfaltspflichtsverstößen gemäß Artikel 3 Absatz 5 Vorschlag AILD als ein eigenes Element zur Beweiserleichterung gesehen werden, ist aber systematisch in der Bestimmung zur Offenlegungspflicht enthalten (vgl insbesondere Seiten 10 und 15 in der Begründung des Vorschlags; siehe im Detail dazu noch im Folgenden).
- ↑ Vgl insbesondere Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte, COM(2021) 206 final.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 14 sowie Erwägungsgrund 15.
- ↑ Vgl insbesondere Erwägungsgründe 26 bis 28.
- ↑ Im Allgemeinen ist anzumerken, dass bei den Begrifflichkeiten des Vorschlags AILD wie auch der neuen Produkthaftungsrichtlinie im Normtext keine gendergerechte Sprache verwendet wird. Daher kann, soweit auf diese Begrifflichkeiten Bezug genommen wird, auch hier keine gendergerechte Sprache verwendet werden. Abgesehen davon wird dies jedenfalls entsprechend berücksichtigt.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13, Erwägungsgründe 10, 20-24, Artikel 1.
- ↑ Siehe insbesondere Artikel 1(3)(d), Erwägungsgründe 10 und 22; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.
- ↑ Hervorhebungen hinzugefügt. Zur Unterscheidung von (objektivem) Sorgfaltsmaßstab(/Sorgfaltsverstoß) und (subjektivem) Verschulden vgl national etwa zur Haftung der GmbH-Geschäftsführung: OGH 3. 8. 2021, 8 ObA 109/20t, insbesondere Randziffer 80 mit weiteren Nachweisen; Feltl/Told in Gruber/Harrer (Hrsg), GmbHG² (2018) § 25 Rz 120.
- ↑ Artikel 4 Absatz 2 Buchstabe b Vorschlag AILD.
- ↑ Vgl Erwägungsgrund 26 Vorschlag AILD, worin unter anderem festgehalten wird, dass die Richtlinie Verschulden derartiger Nutzer erfassen sollte, ”wenn das betreffende Verschulden in der Nichteinhaltung bestimmter spezifischer Anforderungen” gemäß AI Act(-Vorschlag) bestünde; Hervorhebungen hinzugefügt.
- ↑ Das Wort "zuvor" bezog sich dabei wohl eher auf den Antrag als auf die schlussendliche gerichtliche Anordnung (vgl Artikel 3 Absatz 1 Vorschlag AILD, etwa auch in englischer Sprachfassung).
- ↑ Vgl insbesondere Artikel 3 und Erwägungsgrund 19 Vorschlag AILD.
- ↑ Zum Hintergrund ist auf insbesondere auf Erwägungsgrund 19 Vorschlag AILD zu verweisen.
- ↑ Siehe grundlegend Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6.
- ↑ Richtlinie 85/374/EWG des Rates vom 25. Juli 1985 zur Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Haftung für fehlerhafte Produkte, ABl L 1985/210, 29.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 5 und 8; vgl auch Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2 und 3.
- ↑ Siehe Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024 (insbesondere Artikel 23).
- ↑ Vgl Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196).
- ↑ Vgl insgesamt Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 2, 6, 11 und 12, Erwägungsgrund 2, Artikel 1; vgl zum Entwurfsstadium auch Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1, 6, 9, 11, 12 und 14, Erwägungsgrund 12, Artikel 4 Ziffer 1.
- ↑ Vgl auch Erwägungsgrund 3 PHRL neu und zum Entwurfsstadium Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (197); in Erwägungsgrund 13 PHRL neu wird zudem auf die Anbieter von KI-Systemen gemäß AI Act Bezug genommen, weshalb davon auszugehen sein wird, dass mit KI-Systemen wohl jene im Sinne des AI Act (Artikel 3 Ziffer 1 AI Act) gemeint sind.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 14.
- ↑ Vgl zum Entwurfsstadium im Zusammenhang mit digitalisierten Wissensinhalten auch Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196 f); vgl grundlegend dazu insbesondere auch Erwägungsgrund 17 PHRL neu.
- ↑ Dabei sollte wohl insbesondere die Frage zentral sein, inwieweit ein quasi funktional essentieller nicht-körperlicher Gegenstand vorliegt, wobei Erwägungsgrund 20 PHRL neu implizit etwa Daten, wie ursprünglich auf einer Festplatte gespeicherte digitale Dateien, als nicht-körperliche Vermögensgegenstände sieht; vgl zum Entwurfsstadium im Zusammenhang mit digitalisierten Wissensinhalten erneut auch Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (196 f).
- ↑ Vgl im Detail Artikeln 5, 6, 7 und 8 PHRL neu, wobei insbesondere anzumerken ist, dass der Wortlaut von Artikel 5, worin der Schadenersatzanspruch grundlegend statuiert wird, nur auf fehlerhafte Produkte und nicht auch fehlerhafte Komponenten Bezug nimmt.
- ↑ Komponenten finden dabei wiederum grundsätzlich keine Erwähnung.
- ↑ Vgl zum Entwurfsstadium Handig, Produkthaftung refurbished – Vorschlag der Kommission für eine neue ProdukthaftungsRL, ecolex 2023/107 (197) sowie Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seiten 1 und 10.
- ↑ Zur Definition des Begriffs „Kontrolle des Herstellers“ siehe Artikel 4 Z 5 PHRL neu.
- ↑ Siehe Artikel 8 Absatz 1 Unterabsatz 2 PHRL neu, wobei allerdings erneut auch auf die Formulierung von Artikel 5 PHRL neu hinzuweisen ist.
- ↑ Dabei wird jedoch wiederum nur auf Produkte und nicht auf Komponenten explizit Bezug genommen.
- ↑ Vgl Erwägungsgründe 40, 48 und 50 PHRL neu; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6; Erwägungsgrund 48 PHRL neu.
- ↑ Hervorhebungen jeweils hinzugefügt.
- ↑ Vgl insbesondere Erwägungsgründe 40 und 50 PHRL neu.
- ↑ Vgl zu wesentlichen Änderungen im Zusammenhang mit KI erneut insbesondere Erwägungsgrund 40 und allgemein weiterführend zudem auch 17 PHRL neu.
- ↑ Vgl im Detail insbesondere Artikel 12 Absatz 2 Buchstabe a PHRL neu.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 3; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 5.
- ↑ Vgl darüber hinaus Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2 und 3.
- ↑ Vgl Erwägungsgrund 22 und Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD; Hervorhebungen hinzugefügt.
- ↑ Vgl Erwägungsgrund 26 und Artikel 4 Absatz 2 Vorschlag AILD; vgl hinsichtlich Hochrisiko-KI-Nutzern bereits oben unter Kausalitätsvermutung (Artikel 4).
- ↑ Denn unmittelbar davor wurde etwa die Nichteinhaltung einer Gebrauchsanweisung (vgl diesbezüglich insbesondere Art 13 und 29 Abs 1 des AI-Act-Vorschlags; nunmehr prinzipiell Art 13 und 26 Abs 1 AI Act) als potenziell einschlägig angesehen: „Somit kann diese Vermutung beispielsweise bei einem Schadensersatzanspruch aufgrund von Personenschäden gelten, wenn das Gericht feststellt, das ein Verschulden des Beklagten vorliegt, da dieser eine Gebrauchsanweisung, die eine Schädigung natürlicher Personen verhindern soll, nicht eingehalten hat.“ Dies spiegelte sich schließlich auch in Art 4 Abs 3 lit a AILD-Vorschlag wider.
- ↑ Vgl dazu etwa die Pflichten zur Übermittlung von Unterlagen bereits in Artikel 23 AI-Act-Vorschlag (nunmehr prinzipiell Art 21 AI Act); vgl in dem Zusammenhang allerdings auch Erwägungsgrund 25 Vorschlag AILD, der in Bezug auf einen Verstoß gegen Pflichten zur Dokumenteneinreichung oder Registrierung bei Behörden festhielt, dass diesfalls „nach vernünftigem Ermessen nicht davon ausgegangen werden, dass er das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat“, was zusätzlich auf die Voraussetzung nach Artikel 4 Absatz 1 Buchstabe b Vorschlag AILD abzgezielt haben dürfte.
- ↑ Vgl hierzu grundlegend Karner in Bydlinski/Perner/Spitzer, KBB. ABGB. Kommentar zum ABGB7 (2023) § 1294 ABGB Rz 1, 4, § 1295 ABGB Rz 9, § 1311 ABGB Rz 3, 5.
- ↑ Vgl dazu, insbesondere zur Schutzgesetznatur von AI Act-Regelungen und zur Bedeutung der Haftung aufgrund von Schutzgesetzverletzungen im Zusammenhang mit KI, grundlegend Wendehorst in Martini/Wendehorst, KI-VO. Verordnung über Künstliche Intelligenz. Kommentar (2024) Art 1 Rz 78 und folgende.
- ↑ "oder einer Person, für deren Verhalten der Beklagte verantwortlich ist" (Artikel 4 Absatz 1 Buchstabe a Vorschlag AILD).
- ↑ Eventuelle sektorale bankenrechtliche Sonderbestimmungen, die auf dieses Beispiel Anwendung finden könnten, werden in diesem Kontext nicht behandelt und einbezogen.
- ↑ Im Detail versteht Artikel 2 Ziffer 9 Vorschlag AILD unter "Sorgfaltspflicht" dabei "einen im nationalen Recht oder im Unionsrecht festgelegten Verhaltensmaßstab, der einzuhalten ist, um eine Beeinträchtigung von im nationalen Recht oder im Unionsrecht anerkannten Rechtsgütern, einschließlich Leben, körperlicher Unversehrtheit, Eigentum und Wahrung der Grundrechte, zu vermeiden".
- ↑ Insbesondere hält Erwägungsgrund 24 Vorschlag AILD in dem Zusammenhang fest: "In Bereichen, die nicht durch das Unionsrecht harmonisiert sind, gelten weiterhin nationale Rechtsvorschriften, und ein Verschulden wird nach dem geltenden nationalen Recht festgestellt".
- ↑ Regelungen zu Begriffen wie "Schaden" sollten durch die AILD allerdings grundsätzlich unberührt bleiben; dies wäre daher insbesondere national zu beurteilen: vgl Erwägungsgrund 22 Vorschlag AILD; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.
- ↑ Prinzipiell könnte im Grundfall freilich auch überlegt werden, den Angreifer in Haftung zu nehmen. Allerdings wird dies wohl faktisch schwierig umzusetzen sein.
- ↑ Prinzipiell ist in diesem Zusammenhang aber auch auf Software-as-a-Service-Modelle zu verweisen, die demnach anders zu beurteilen sein könnten.
- ↑ Vgl grundlegend Erwägungsgrund 13 PHRL neu, sowie zur Produkteigenschaft von in ein anderes Produkt integrierten Komponenten zudem Erwägungsgrund 36 PHRL neu.
- ↑ Vgl Artikel 4 Absatz 3 Buchstabe a Vorschlag AILD und weiters insbesondere insbesondere Artikeln 13 und 29 Absatz 1 des AI-Act-Vorschlags; nunmehr prinzipiell Artikeln 13 und 26 Absatz 1 AI Act.
- ↑ Vgl insbesondere Erwägungsgrund 67 und Artikel 10 Absatz 2 Buchstabe f AI Act.
- ↑ Vgl in dem Zusammenhang auch die Ausführungen zur Beweismitteloffenlegung gemäß Vorschlag AILD, die wohl auch in dem Zusammenhang relevant wäre.