KI-Haftungsregelungen: Unterschied zwischen den Versionen

Aus RI Wiki
Zur Navigation springenZur Suche springen
PP (Diskussion | Beiträge)
Keine Bearbeitungszusammenfassung
PP (Diskussion | Beiträge)
Zeile 20: Zeile 20:
Dabei ist anzumerken, dass der AI Act (in der im Amtsblatt veröffentlichten Fassung) zwar eine allgemeine Definition von ''KI-Systemen'' enthält, in der Folge jedoch insbesondere Regelungen für bestimmte Risikoklassen solcher Systeme (siehe [[Artificial Intelligence Act (AIA)]]). KI-Systeme, die nicht diesen Risikoklassen zuzuordnen bzw von entsprechenden (AI Act-)Regelungen erfasst sind, wären demnach jedoch zumindest im Rahmen der AILD relevant. In dem Zusammenhang verweisen die Erwägungsgründe des AILD-Vorschlags darauf, dass auch bei nicht-Hochrisiko-Systemen bestimmte KI-Merkmale, wie Autonomie und Undurchsichtigkeit, zu Beweisschwierigkeiten führen könnten.<ref>Vgl insbesondere Erwägungsgründe 26 bis 28.</ref>  
Dabei ist anzumerken, dass der AI Act (in der im Amtsblatt veröffentlichten Fassung) zwar eine allgemeine Definition von ''KI-Systemen'' enthält, in der Folge jedoch insbesondere Regelungen für bestimmte Risikoklassen solcher Systeme (siehe [[Artificial Intelligence Act (AIA)]]). KI-Systeme, die nicht diesen Risikoklassen zuzuordnen bzw von entsprechenden (AI Act-)Regelungen erfasst sind, wären demnach jedoch zumindest im Rahmen der AILD relevant. In dem Zusammenhang verweisen die Erwägungsgründe des AILD-Vorschlags darauf, dass auch bei nicht-Hochrisiko-Systemen bestimmte KI-Merkmale, wie Autonomie und Undurchsichtigkeit, zu Beweisschwierigkeiten führen könnten.<ref>Vgl insbesondere Erwägungsgründe 26 bis 28.</ref>  


Mit dem Richtlinienvorschlag wird ein '''Mindestharmonisierungsansatz''' verfolgt, wodurch „''es Klägern im Fall eines durch KI-Systeme verursachten Schadens''“ ermöglichen soll „''sich auf günstigere Vorschriften des nationalen Rechts zu berufen“'' (Erwägungsgrund 15). Weiters soll die vorgeschlagene Richtlinie quasi nur bestimmte ergänzende Regelungen in Bezug auf die bestehenden Haftungssysteme für die zivilrechtliche (nicht strafrechtliche), verschuldensabhängige, außervertragliche Haftung für durch KI-Systeme verursachten Schäden einführen.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13; Artikel 1.</ref> In Bezug auf entsprechende Verschuldenshaftungen hält Erwägungsgrund 3 im Allgemeinen auch Folgendes fest, was gewissermaßen als Ausgangsbasis zu sehen ist: <blockquote>„''Wenn ein Geschädigter für einen entstandenen Schaden Schadensersatz verlangt, so muss er n'''ach den allgemeinen Vorschriften der Mitgliedstaaten für die verschuldensabhängige Haftung''' in der Regel eine '''fahrlässige oder vorsätzliche schädigende Handlung oder Unterlassung („Verschulden“)''' der Person, die potenziell für diesen Schaden haftbar ist, sowie einen '''ursächlichen Zusammenhang zwischen diesem Verschulden und dem betreffenden Schaden''' nachweisen.''“ (Hervorhebungen hinzugefügt)</blockquote>Der eingeschränkte Anwendungsbereich wird konkret insbesondere durch Artikel 1 sowie die Definition von Schadenersatzansprüchen, auf die sich die Richtlinie beziehen soll (Artikel 2 Ziffer 5), umgesetzt. Diese Defintion umfasst demach: „''einen außervertraglichen verschuldensabhängigen zivilrechtlichen Anspruch auf Ersatz des Schadens, der durch ein Ergebnis eines KI-Systems oder aber dadurch, dass dieses System das von ihm erwartete Ergebnis nicht hervorgebracht hat, verursacht wurde''“.  
Mit dem Richtlinienvorschlag wird ein '''Mindestharmonisierungsansatz''' verfolgt, wodurch „''es Klägern im Fall eines durch KI-Systeme verursachten Schadens''“ ermöglichen soll „''sich auf günstigere Vorschriften des nationalen Rechts zu berufen“'' (Erwägungsgrund 15).<ref>Im Allgemeinen ist anzumerken, dass bei den Begrifflichkeiten der AILD wie auch der neuen Produkthaftungsrichtlinie im Normtext keine gendergerechte Sprache verwendet wird. Daher kann, soweit auf diese Begrifflichkeiten Bezug genommen wird, auch hier keine gendergerechte Sprache verwendet werden. Abgesehen davon wird dies jedenfalls entsprechend berücksichtigt.</ref> Weiters soll die vorgeschlagene Richtlinie quasi nur bestimmte ergänzende Regelungen in Bezug auf die bestehenden Haftungssysteme für die zivilrechtliche (nicht strafrechtliche), verschuldensabhängige, außervertragliche Haftung für durch KI-Systeme verursachten Schäden einführen.<ref>Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13; Artikel 1.</ref> In Bezug auf entsprechende Verschuldenshaftungen hält Erwägungsgrund 3 im Allgemeinen auch Folgendes fest, was gewissermaßen als Ausgangsbasis zu sehen ist: <blockquote>„''Wenn ein Geschädigter für einen entstandenen Schaden Schadensersatz verlangt, so muss er n'''ach den allgemeinen Vorschriften der Mitgliedstaaten für die verschuldensabhängige Haftung''' in der Regel eine '''fahrlässige oder vorsätzliche schädigende Handlung oder Unterlassung („Verschulden“)''' der Person, die potenziell für diesen Schaden haftbar ist, sowie einen '''ursächlichen Zusammenhang zwischen diesem Verschulden und dem betreffenden Schaden''' nachweisen.''“ (Hervorhebungen hinzugefügt)</blockquote>Der eingeschränkte Anwendungsbereich wird konkret insbesondere durch Artikel 1 sowie die Definition von Schadenersatzansprüchen, auf die sich die Richtlinie beziehen soll (Artikel 2 Ziffer 5), umgesetzt. Diese Defintion umfasst demach: „''einen außervertraglichen verschuldensabhängigen zivilrechtlichen Anspruch auf Ersatz des Schadens, der durch ein Ergebnis eines KI-Systems oder aber dadurch, dass dieses System das von ihm erwartete Ergebnis nicht hervorgebracht hat, verursacht wurde''“.  


Auch ''Beklagte'' und ''Kläger'' werden in der Richtlinie definiert (Artikel 2 Ziffern 6 bis 8). Beklagte können demnach (alle) Personen sein, „''gegen die ein Schadensersatzanspruch geltend gemacht wird''“ (Artikel 2 Z 8). Die Definition von Kernbegriffen, wie ''Schaden'' oder ''Verschulden'' und die Regelung von allgemeinen Aspekten der Haftung soll dabei aber prinzipiell (anderen) Vorschriften des Unions- bzw nationalen Rechts überlassen werden.<ref>Siehe insbesondere Artikel 1(3)(d), Erwägungsgründe 10 und 22; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.</ref>
Auch ''Beklagte'' und ''Kläger'' werden in der Richtlinie definiert (Artikel 2 Ziffern 6 bis 8). Beklagte können demnach (alle) Personen sein, „''gegen die ein Schadensersatzanspruch geltend gemacht wird''“ (Artikel 2 Z 8). Die Definition von Kernbegriffen, wie ''Schaden'' oder ''Verschulden'' und die Regelung von allgemeinen Aspekten der Haftung soll dabei aber prinzipiell (anderen) Vorschriften des Unions- bzw nationalen Rechts überlassen werden.<ref>Siehe insbesondere Artikel 1(3)(d), Erwägungsgründe 10 und 22; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.</ref>
Zeile 54: Zeile 54:


== Fallbeispiele ==
== Fallbeispiele ==
==== Beispiel 1: Kreditscoring ====
{| class="wikitable"
|+
!Sachverhalt
|Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.
|-
!Einordnung KI-Verordnung
|Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Ziffer 5 Buchstabe b vor (siehe im Detail '''[LINK ZU BESPRECHUNG DES BSP BEI AI ACT]''').
|-
!Einordnung AI Liability Directive
|In Hinblick auf die diskriminierende Trainingsdatenbasis wäre gegebenenfalls insbesondere in Hinblick auf den Anbieter des Systems die Kausalitätsvermutung gemäß Artikel 4 AILD relevant.
Durch eine entsprechende Verletzung von Artikel 10 '''ABS...''' AI Act (siehe im Detail  '''[LINK ZU BESPRECHUNG DES BSP BEI AI ACT]''') könnte Artikel 4 Absatz 2 Buchstabe a AILD erfüllt werden, indem eine der taxativ aufgezählten Pflichten von Hochrisiko-KI-Anbietern betroffen wäre.
Damit wäre bei einem entsprechenden Schadenersatzanspruch gegen den Anbieter unter der Vorausetzung, dass der Kläger ein entsprechendes Verschulden des Anbieters nachweist, sowie, dass das Ergebnis des Kredit-Scorings zu seinem Schaden geführt hat, die Kausalitätsvermutung anwendbar, sofern weiters auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden kann, dass das Verschulden das Ergebnis des Kredit-Scorings beeinflusst hat. Jedenfalls nach dem Sachverhalt kann von einer solchen Beeinflussung ausgegangen werden.
Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre gegebenenfalls auch die Offenlegungspflicht gemäß Artikel 3 AILD anwendbar.
Demnach müssten gegebenenfalls einschlägige Beweismittel, die dem Anbieter des Kredit-Scoring-Systems vorliegen, offengelegt werden, was insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act hinsichtlich der Trainingsdatenbasis relevant sein wird (vgl insbesondere Erwägungsgründe 16, 18 und 19; '''[LINK AUF ENTSPRECHENDE AUSFÜHRUGNEN ZU AI ACT PFLICHTEN''']). 
|-
!Einordnung Produkthaftungs-RL
|Die Produkthaftungsrichtlinie ist bei reinen Vermögensschäden nicht anwendbar (Artikel 6 e contrario; Erwägungsgründe 23 und 24).
|}
==== Beispiel 2 ====
==== Beispiel 3 ====
==== Beispiel 4 ====


== Weiterführende Literatur ==
== Weiterführende Literatur ==


== Weiterführende Links ==
== Weiterführende Links ==

Version vom 27. November 2024, 15:38 Uhr

Einleitung

Im Bereich der Regulierung künstlicher Intelligenz durch die EU wurden neben dem AI Act von der Kommission auch Vorschläge für spezifische Haftungsregelungen in diesem Zusammenhang vorgelegt. Dies beinhaltete zum einen den Vorschlag für eine neue Produkthaftungsrichtlinie, welcher zwar auch andere Hintergründe hatte, aber durch einige Aspekte insbesondere auch auf künstliche Intelligenz (KI) abzielte, und zum anderen einen Vorschlag für eine eigene AI Liability Directive (AILD).[1]

Während die neue Produkthaftungsrichtlinie, wie auch bisher, im Wesentlichen auf die Festlegung von Regelungen für eine verschuldensunabhängige (zivilrechtliche) Haftung abzielen sollte, adressierte der Vorschlag für die AILD insbesondere Beweiserleichterungen im Rahmen der (prinzipiell weiterhin) aus nationalen bzw unionsrechtlichen Regelungen ableitbaren außervertraglichen, verschuldensabhängigen, zivilrechtlichen Haftung.[2] Dadurch sollte vorrangig (Beweis-)Problematiken entgegengetreten werden, die mit gewissen Eigenschaften von KI in Verbindung gebracht wurden, wie deren Komplexität und Undurchsichtigkeit (die wiederum insgesamt als Blackbox-Effekt bezeichnet werden). Angesprochen wurden dabei insbesondere Nachweise für die Aspekte Kausalität und Verschulden.[3] Den Erläuterungen zufolge wurden in dem Zusammenhang verschiedene Optionen abgewogen und sich vorerst gegen die Statuierung einer eigenen (verschuldensunabhängigen) Haftung für KI entschieden, was allerdings demnach nach einer gewissen Zeit noch einmal evaluiert werden sollte (siehe im Detail Artikel 5 AILD-Vorschlag).[4]

Im Rahmen der neuen Produkthaftungsrichtlinie sollte nach weitreichenden Unklarheiten[5] in diesem Zusammenhang nunmehr Software (und damit auch KI) explizit in den Produktbegriff aufgenommen werden. Darüber hinaus zielen auch gewisse Aspekte der neuen Produkthaftungsregelungen mehr oder weniger spezifisch auf KI bzw deren Besonderheiten ab.[6]

Beide Vorschläge zielten auf Richtlinien ab, was insbesondere bedeutet, dass diese prinzipiell zunächst durch die Mitgliedstaaten in nationales Recht umgesetzt werden müssten, um Geltung zu erlangen. Allerdings sind die jeweiligen Gesetzgebungsverfahren sehr unterschiedlich verlaufen. Die neue Produkthaftungsrichtlinie ist mittlerweile im Amtsblatt der EU veröffentlicht worden[7] und prinzipiell in Kraft getreten, während das Gesetzgebungsverfahren für die AILD aufgeschoben wurde und inzwischen diverse Änderungen des Vorschlags diskutiert werden. Siehe im Detail jeweils unterVorschlag für AI Liability Directive bzw Produkthaftungsrichtlinie neu.


Vorschlag für AI Liability Directive

Überblick und Anwendungsbereich

Der Vorschlag für eine AI Liability Directive (AILD) wurde 2022 von der Kommission vorgelegt.[8] Dabei wird jedoch berichtet, dass der Gesetzgebungsprozess zwischenzeitlich aufgeschoben wurde, insbesondere um zunächst die gesetzgeberische Fertigstellung des AI Acts abzuwarten und dass nunmehr von der Kommission nicht öffentlich ein überarbeiteter Vorschlag ausgesendet wurde, der insbesondere an den inzwischen veröffentlichten AI Act, aber zumindest mitunter auch in Bezug auf seine konkreten Regelungen, angepasst worden sein soll.[9] Im September 2024 wurde zudem eine Studie des European Parliamentary Research Service (EPRS) publiziert, im Rahmen welcher insbesondere eine gemischte (verschuldensab- und unabhängige) Haftung vorgeschlagen wird sowie die Ausweitung Anwendungsbereichs der Richtlinie (etwa auf Software generell).[10]

Demnach wird im Folgenden nur auf den ursprünglichen Vorschlag der Kommission detaillierter eingegangen.

Dieser enthält im Wesentlichen zwei Elemente, die als Beweiserleichterungen bei der Geltendmachung von Schadenersatz im Zusammenhang mit KI dienen sollen: zum einen eine Offenlegungspflicht für bestimmte KI-Systeme und zum anderen eine Kausalitätsvermutung im Zusammenhang mit KI-Systemen generell.[11] Bereits der ursprüngliche Richtlinienvorschlag hat Begrifflichkeiten und Systematik (etwa hinsichtlich KI-Systemen und gewissen, mit diesen in Verbindung stehenden Akteuren) aus dem damals vorliegenden AI Act-Vorschlag übernommen, die jedoch teilweise nicht mehr jenen der veröffentlichten Version des AI Act entsprechen.[12]

Dabei ist anzumerken, dass der AI Act (in der im Amtsblatt veröffentlichten Fassung) zwar eine allgemeine Definition von KI-Systemen enthält, in der Folge jedoch insbesondere Regelungen für bestimmte Risikoklassen solcher Systeme (siehe Artificial Intelligence Act (AIA)). KI-Systeme, die nicht diesen Risikoklassen zuzuordnen bzw von entsprechenden (AI Act-)Regelungen erfasst sind, wären demnach jedoch zumindest im Rahmen der AILD relevant. In dem Zusammenhang verweisen die Erwägungsgründe des AILD-Vorschlags darauf, dass auch bei nicht-Hochrisiko-Systemen bestimmte KI-Merkmale, wie Autonomie und Undurchsichtigkeit, zu Beweisschwierigkeiten führen könnten.[13]

Mit dem Richtlinienvorschlag wird ein Mindestharmonisierungsansatz verfolgt, wodurch „es Klägern im Fall eines durch KI-Systeme verursachten Schadens“ ermöglichen soll „sich auf günstigere Vorschriften des nationalen Rechts zu berufen“ (Erwägungsgrund 15).[14] Weiters soll die vorgeschlagene Richtlinie quasi nur bestimmte ergänzende Regelungen in Bezug auf die bestehenden Haftungssysteme für die zivilrechtliche (nicht strafrechtliche), verschuldensabhängige, außervertragliche Haftung für durch KI-Systeme verursachten Schäden einführen.[15] In Bezug auf entsprechende Verschuldenshaftungen hält Erwägungsgrund 3 im Allgemeinen auch Folgendes fest, was gewissermaßen als Ausgangsbasis zu sehen ist:

Wenn ein Geschädigter für einen entstandenen Schaden Schadensersatz verlangt, so muss er nach den allgemeinen Vorschriften der Mitgliedstaaten für die verschuldensabhängige Haftung in der Regel eine fahrlässige oder vorsätzliche schädigende Handlung oder Unterlassung („Verschulden“) der Person, die potenziell für diesen Schaden haftbar ist, sowie einen ursächlichen Zusammenhang zwischen diesem Verschulden und dem betreffenden Schaden nachweisen.“ (Hervorhebungen hinzugefügt)

Der eingeschränkte Anwendungsbereich wird konkret insbesondere durch Artikel 1 sowie die Definition von Schadenersatzansprüchen, auf die sich die Richtlinie beziehen soll (Artikel 2 Ziffer 5), umgesetzt. Diese Defintion umfasst demach: „einen außervertraglichen verschuldensabhängigen zivilrechtlichen Anspruch auf Ersatz des Schadens, der durch ein Ergebnis eines KI-Systems oder aber dadurch, dass dieses System das von ihm erwartete Ergebnis nicht hervorgebracht hat, verursacht wurde“.

Auch Beklagte und Kläger werden in der Richtlinie definiert (Artikel 2 Ziffern 6 bis 8). Beklagte können demnach (alle) Personen sein, „gegen die ein Schadensersatzanspruch geltend gemacht wird“ (Artikel 2 Z 8). Die Definition von Kernbegriffen, wie Schaden oder Verschulden und die Regelung von allgemeinen Aspekten der Haftung soll dabei aber prinzipiell (anderen) Vorschriften des Unions- bzw nationalen Rechts überlassen werden.[16]

Kausaltitätsvermutung (Artikel 4)

Artikel 4 regelt als einen zentralen Aspekt der Richtlinie eine widerlegbare Kausalitätsvermutung. Unter gewissen Voraussetzungen soll dabei bei der Anwendung von Haftungsvorschriften in Bezug auf erfasste Schadenersatzansprüche ein ursächlicher Zusammenhang „zwischen dem Verschulden des Beklagten und dem vom KI-System hervorgebrachten Ergebnis oder aber der Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat“ vermutet werden (Artikel 4(1)).

Die Voraussetzungen sind dabei prinzipiell, dass der Kläger nachweist, "dass ein Verschulden seitens des Beklagten oder einer Person, für deren Verhalten der Beklagte verantwortlich ist, vorliegt, da gegen [...]" einschlgägige Sorgfaltspflichten verstoßen wurde (Artikel 4(1)(a)), sowie dass das Ergebnis oder Nicht-Ergebnis des KI-Systems zu dem entsprechenden Schaden geführt hat (Artikel 4(1)(c)). Zudem muss auf „Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden" können, "dass das Verschulden das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat“ (Artikel 4(1)(b)).

Die wesentliche Konsequenz wäre demnach eine gewisse gedankliche Verlagerung des (Nicht-)Resultats einer KI hin zu einer entsprechenden Handlung oder Unterlassung einer Person.

Offenlegungspflicht (Artikel 3)


Produkhaftungsrichtlinie neu

Überblick

Awendungsbereich und neuer Produktbegriff

Für KI relevante spezifische Regelungen

Synergien

Der ursprüngliche Vorschlag zur AILD und die neue Produkthaftungsrichtlinie zielen prinzipiell auf verschiedene Anwendungsfälle bzw Haftungsszenarien ab, ergänzen sich dabei jedoch dementsprechend.[17] Zudem waren diese Vorschläge als Paket mit jenem für den AI Act zu sehen.[18]

Insbesondere durch die Heranziehung der Begrifflichkeiten aus dem AI Act(-Vorschlag), aber auch durch die Heranziehung entsprechender Sorgfaltspflichten als Voraussetzung für die Kausalitätsvermutung (Artikel 4 AILD) würden sich bei der AILD gegebenenfalls auch entsprechende Synergien mit dem AI Act ergeben.

Umgekehrt können aus der Interpretation gewisser Pflichten nach dem AI Act(-Vorschlag) durch den Vorschlag für die AILD auch gewisse Ansatzpunkte für die Auslegung des AI Acts gewonnen werden. Denn nach dem AILD-Vorschlag sollten, um die Kausalitätsvermutung gemäß Artikel 4 auszulösen (neben anderen Voraussetzungen), nur Verstöße gegen solche Sorgfaltspflichten einschlägig sein, „deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern“.[19] Zumindest in Hinblick auf Anbieter von Hochrisiko-KI-Systemen sollten in dem Zusammenhang wiederum nur bestimmte, taxativ aufgezählte Pflichten nach dem AI Act einschlägig sein.[20] In diesem Zusammenhang nennt Erwägungsgrund 22 auch explizit Erfordernisse, die nicht auf einen entsprechenden Schutz vor Schäden abzielen sollen (was wohl auch den AI Act betrifft), indem dieser festhält: „Verstöße gegen Sorgfaltspflichten, deren unmittelbarer Zweck nicht darin besteht, den eingetretenen Schaden zu verhindern, führen nicht zur Geltung der Vermutung; wenn beispielsweise ein Anbieter die erforderlichen Unterlagen nicht bei den zuständigen Behörden einreicht, würde dies bei Schadensersatzansprüchen aufgrund von Personenschäden nicht zur Geltung der Vermutung führen“. Demnach scheint die EU-Kommission im AILD-Vorschlag (zumindest in manchen Bereichen) nur manche AI Act-(Vorschlag)-Pflichten als „Sorgfaltspflicht, deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern“ zu interpretieren. Das könnte wiederum Auswirkungen auf die Auslegung von AI Act-Regelungen als Schutzgesetze im Sinne des § 1311 ABGB, und damit dem Schadenersatz bei Verletzung des AI Acts, haben.

Nach dem Vorschlag soll die AILD außerdem quasi bestehende zivilrechtliche Haftungsregime bzw entsprechende nationale und unionrechtliche Regelungen ergänzen.[21] Die AILD wäre demnach gegebenenfalls gemeinsam mit diesen zu sehen.

Im Rahmen der neuen Produkthaftungsrichtlinie wurde explizit auf den AI Act Bezug genommen, indem in den Erwägungsgründen festgehalten wurde, dass "Entwickler oder Hersteller von Software, einschließlich der Anbieter von KI-Systemen im Sinne [...]" des AI Acts als Hersteller erachtet werden sollten. Darüber hinaus ist davon auszugehen, dass auch die Bezugnahmen auf KI-Systeme in den Erwägungsgründen vermutlich (insbesondere) im Sinne des AI Acts zu verstehen sind (siehe auch unter Anwendungsbereich und neuer Produktbegriff).

Fallbeispiele

Beispiel 1: Kreditscoring

Sachverhalt Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.

Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären.

Einordnung KI-Verordnung Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Ziffer 5 Buchstabe b vor (siehe im Detail [LINK ZU BESPRECHUNG DES BSP BEI AI ACT]).
Einordnung AI Liability Directive In Hinblick auf die diskriminierende Trainingsdatenbasis wäre gegebenenfalls insbesondere in Hinblick auf den Anbieter des Systems die Kausalitätsvermutung gemäß Artikel 4 AILD relevant.

Durch eine entsprechende Verletzung von Artikel 10 ABS... AI Act (siehe im Detail [LINK ZU BESPRECHUNG DES BSP BEI AI ACT]) könnte Artikel 4 Absatz 2 Buchstabe a AILD erfüllt werden, indem eine der taxativ aufgezählten Pflichten von Hochrisiko-KI-Anbietern betroffen wäre. Damit wäre bei einem entsprechenden Schadenersatzanspruch gegen den Anbieter unter der Vorausetzung, dass der Kläger ein entsprechendes Verschulden des Anbieters nachweist, sowie, dass das Ergebnis des Kredit-Scorings zu seinem Schaden geführt hat, die Kausalitätsvermutung anwendbar, sofern weiters auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden kann, dass das Verschulden das Ergebnis des Kredit-Scorings beeinflusst hat. Jedenfalls nach dem Sachverhalt kann von einer solchen Beeinflussung ausgegangen werden. Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre gegebenenfalls auch die Offenlegungspflicht gemäß Artikel 3 AILD anwendbar. Demnach müssten gegebenenfalls einschlägige Beweismittel, die dem Anbieter des Kredit-Scoring-Systems vorliegen, offengelegt werden, was insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act hinsichtlich der Trainingsdatenbasis relevant sein wird (vgl insbesondere Erwägungsgründe 16, 18 und 19; [LINK AUF ENTSPRECHENDE AUSFÜHRUGNEN ZU AI ACT PFLICHTEN]).

Einordnung Produkthaftungs-RL Die Produkthaftungsrichtlinie ist bei reinen Vermögensschäden nicht anwendbar (Artikel 6 e contrario; Erwägungsgründe 23 und 24).

Beispiel 2

Beispiel 3

Beispiel 4

Weiterführende Literatur

Weiterführende Links

  1. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2, 3 und 13; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und folgende.
  2. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 14; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 3, 12 und 13.
  3. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 1, 2, Erwägungsgründe 22 und 28, Artikel 3(5).
  4. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 5 und folgende.
  5. Vgl etwa Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seite 1; European Parliamentary Research Service, Artificial intelligence liability directive, PE 739.342, February 2023; für Österreich etwa: Larcher, Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130 (Seiten 133, 134); für Deutschland etwa: Dötsch, Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023), insbesondere Seiten 276 und folgende; Joggerst/Wendt, Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13.
  6. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6.
  7. Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024.
  8. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final.
  9. Vgl Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024); Tom Whittaker, EU AI Liability Directive: An Update, in: Burges Salmon blog, https://blog.burges-salmon.com/post/102jfdv/eu-ai-liability-directive-an-update(abgerufen am 26. 11. 2024).
  10. European Parliamentary Research Service, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment (2024); siehe auch Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024).
  11. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.
  12. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere die Erläuterungen in der Begründung.
  13. Vgl insbesondere Erwägungsgründe 26 bis 28.
  14. Im Allgemeinen ist anzumerken, dass bei den Begrifflichkeiten der AILD wie auch der neuen Produkthaftungsrichtlinie im Normtext keine gendergerechte Sprache verwendet wird. Daher kann, soweit auf diese Begrifflichkeiten Bezug genommen wird, auch hier keine gendergerechte Sprache verwendet werden. Abgesehen davon wird dies jedenfalls entsprechend berücksichtigt.
  15. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13; Artikel 1.
  16. Siehe insbesondere Artikel 1(3)(d), Erwägungsgründe 10 und 22; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.
  17. Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seite 5; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 3.
  18. Vgl darüber hinaus Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2 und 3.
  19. Vgl Erwägungsgrund 22 und Artikel 4(1)(a).
  20. Vgl Erwägungsgrund 26 und Artikel 4(2).
  21. Siehe Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13; siehe zudem unter Überblick und Anwendungsbereich.