KI-Haftungsregelungen
Einleitung
Im Bereich der Regulierung künstlicher Intelligenz durch die EU wurden neben dem AI Act von der Kommission auch Vorschläge für spezifische Haftungsregelungen in diesem Zusammenhang vorgelegt. Dies beinhaltete zum einen den Vorschlag für eine neue Produkthaftungsrichtlinie, welcher zwar auch andere Hintergründe hatte, aber durch einige Aspekte insbesondere auch auf künstliche Intelligenz (KI) abzielte, und zum anderen einen Vorschlag für eine eigene AI Liability Directive (AILD).[1]
Während die neue Produkthaftungsrichtlinie, wie auch bisher, im Wesentlichen auf die Festlegung von Regelungen für eine verschuldensunabhängige (zivilrechtliche) Haftung abzielen sollte, adressierte der Vorschlag für die AILD insbesondere Beweiserleichterungen im Rahmen der (prinzipiell weiterhin) aus nationalen bzw unionsrechtlichen Regelungen ableitbaren außervertraglichen, verschuldensabhängigen, zivilrechtlichen Haftung.[2] Dadurch sollte vorrangig (Beweis-)Problematiken entgegengetreten werden, die mit gewissen Eigenschaften von KI in Verbindung gebracht wurden, wie deren Komplexität und Undurchsichtigkeit (die wiederum insgesamt als Blackbox-Effekt bezeichnet werden). Angesprochen wurden dabei insbesondere Nachweise für die Aspekte Kausalität und Verschulden.[3] Den Erläuterungen zufolge wurden in dem Zusammenhang verschiedene Optionen abgewogen und sich vorerst gegen die Statuierung einer eigenen (verschuldensunabhängigen) Haftung für KI entschieden, was allerdings demnach nach einer gewissen Zeit noch einmal evaluiert werden sollte (siehe im Detail Artikel 5 AILD-Vorschlag).[4]
Im Rahmen der neuen Produkthaftungsrichtlinie sollte nach weitreichenden Unklarheiten[5] in diesem Zusammenhang nunmehr Software (und damit auch KI) explizit in den Produktbegriff aufgenommen werden. Darüber hinaus zielen auch gewisse Aspekte der neuen Produkthaftungsregelungen mehr oder weniger spezifisch auf KI bzw deren Besonderheiten ab.[6]
Beide Vorschläge zielten auf Richtlinien ab, was insbesondere bedeutet, dass diese prinzipiell zunächst durch die Mitgliedstaaten in nationales Recht umgesetzt werden müssten, um Geltung zu erlangen. Allerdings sind die jeweiligen Gesetzgebungsverfahren sehr unterschiedlich verlaufen. Die neue Produkthaftungsrichtlinie ist mittlerweile im Amtsblatt der EU veröffentlicht worden[7] und prinzipiell in Kraft getreten, während das Gesetzgebungsverfahren für die AILD aufgeschoben wurde und inzwischen diverse Änderungen des Vorschlags diskutiert werden. Siehe im Detail jeweils unterVorschlag für AI Liability Directive bzw Produkthaftungsrichtlinie neu.
Vorschlag für AI Liability Directive
Überblick und Anwendungsbereich
Der Vorschlag für eine AI Liability Directive (AILD) wurde 2022 von der Kommission vorgelegt.[8] Dabei wird jedoch berichtet, dass der Gesetzgebungsprozess zwischenzeitlich aufgeschoben wurde, insbesondere um zunächst die gesetzgeberische Fertigstellung des AI Acts abzuwarten und dass nunmehr von der Kommission nicht öffentlich ein überarbeiteter Vorschlag ausgesendet wurde, der insbesondere an den inzwischen veröffentlichten AI Act, aber zumindest mitunter auch in Bezug auf seine konkreten Regelungen, angepasst worden sein soll.[9] Im September 2024 wurde zudem eine Studie des European Parliamentary Research Service (EPRS) publiziert, im Rahmen welcher insbesondere eine gemischte (verschuldensab- und unabhängige) Haftung vorgeschlagen wird sowie die Ausweitung Anwendungsbereichs der Richtlinie (etwa auf Software generell).[10]
Demnach wird im Folgenden nur auf den ursprünglichen Vorschlag der Kommission detaillierter eingegangen.
Dieser enthält im Wesentlichen zwei Elemente, die als Beweiserleichterungen bei der Geltendmachung von Schadenersatz im Zusammenhang mit KI dienen sollen: zum einen eine Offenlegungspflicht für bestimmte KI-Systeme und zum anderen eine Kausalitätsvermutung im Zusammenhang mit KI-Systemen generell.[11] Bereits der ursprüngliche Richtlinienvorschlag hat Begrifflichkeiten und Systematik (etwa hinsichtlich KI-Systemen und gewissen, mit diesen in Verbindung stehenden Akteuren) aus dem damals vorliegenden AI Act-Vorschlag übernommen, die jedoch teilweise nicht mehr jenen der veröffentlichten Version des AI Act entsprechen.[12]
Dabei ist anzumerken, dass der AI Act (in der im Amtsblatt veröffentlichten Fassung) zwar eine allgemeine Definition von KI-Systemen enthält, in der Folge jedoch insbesondere Regelungen für bestimmte Risikoklassen solcher Systeme (siehe Artificial Intelligence Act (AIA)). KI-Systeme, die nicht diesen Risikoklassen zuzuordnen bzw von entsprechenden (AI Act-)Regelungen erfasst sind, wären demnach jedoch zumindest im Rahmen der AILD relevant. In dem Zusammenhang verweisen die Erwägungsgründe des AILD-Vorschlags darauf, dass auch bei nicht-Hochrisiko-Systemen bestimmte KI-Merkmale, wie Autonomie und Undurchsichtigkeit, zu Beweisschwierigkeiten führen könnten.[13]
Mit dem Richtlinienvorschlag wird ein Mindestharmonisierungsansatz verfolgt, wodurch „es Klägern im Fall eines durch KI-Systeme verursachten Schadens“ ermöglichen soll „sich auf günstigere Vorschriften des nationalen Rechts zu berufen“ (Erwägungsgrund 15).[14] Weiters soll die vorgeschlagene Richtlinie quasi nur bestimmte ergänzende Regelungen in Bezug auf die bestehenden Haftungssysteme für die zivilrechtliche (nicht strafrechtliche), verschuldensabhängige, außervertragliche Haftung für durch KI-Systeme verursachten Schäden einführen.[15] In Bezug auf entsprechende Verschuldenshaftungen hält Erwägungsgrund 3 im Allgemeinen auch Folgendes fest, was gewissermaßen als Ausgangsbasis zu sehen ist:
„Wenn ein Geschädigter für einen entstandenen Schaden Schadensersatz verlangt, so muss er nach den allgemeinen Vorschriften der Mitgliedstaaten für die verschuldensabhängige Haftung in der Regel eine fahrlässige oder vorsätzliche schädigende Handlung oder Unterlassung („Verschulden“) der Person, die potenziell für diesen Schaden haftbar ist, sowie einen ursächlichen Zusammenhang zwischen diesem Verschulden und dem betreffenden Schaden nachweisen.“ (Hervorhebungen hinzugefügt)
Der eingeschränkte Anwendungsbereich wird konkret insbesondere durch Artikel 1 sowie die Definition von Schadenersatzansprüchen, auf die sich die Richtlinie beziehen soll (Artikel 2 Ziffer 5), umgesetzt. Diese Defintion umfasst demach: „einen außervertraglichen verschuldensabhängigen zivilrechtlichen Anspruch auf Ersatz des Schadens, der durch ein Ergebnis eines KI-Systems oder aber dadurch, dass dieses System das von ihm erwartete Ergebnis nicht hervorgebracht hat, verursacht wurde“.
Auch Beklagte und Kläger werden in der Richtlinie definiert (Artikel 2 Ziffern 6 bis 8). Beklagte können demnach (alle) Personen sein, „gegen die ein Schadensersatzanspruch geltend gemacht wird“ (Artikel 2 Z 8). Die Definition von Kernbegriffen, wie Schaden oder Verschulden und die Regelung von allgemeinen Aspekten der Haftung soll dabei aber prinzipiell (anderen) Vorschriften des Unions- bzw nationalen Rechts überlassen werden.[16]
Kausaltitätsvermutung (Artikel 4)
Artikel 4 regelt als einen zentralen Aspekt der Richtlinie eine widerlegbare Kausalitätsvermutung. Unter gewissen Voraussetzungen soll dabei bei der Anwendung von Haftungsvorschriften in Bezug auf erfasste Schadenersatzansprüche ein ursächlicher Zusammenhang „zwischen dem Verschulden des Beklagten und dem vom KI-System hervorgebrachten Ergebnis oder aber der Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat“ vermutet werden (Artikel 4(1)).
Die Voraussetzungen sind dabei prinzipiell, dass der Kläger nachweist, "dass ein Verschulden seitens des Beklagten oder einer Person, für deren Verhalten der Beklagte verantwortlich ist, vorliegt, da gegen [...]" einschlgägige Sorgfaltspflichten verstoßen wurde (Artikel 4(1)(a)), sowie dass das Ergebnis oder Nicht-Ergebnis des KI-Systems zu dem entsprechenden Schaden geführt hat (Artikel 4(1)(c)). Zudem muss auf „Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden" können, "dass das Verschulden das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat“ (Artikel 4(1)(b)).
Die wesentliche Konsequenz wäre demnach eine gewisse gedankliche Verlagerung des (Nicht-)Resultats einer KI hin zu einer entsprechenden Handlung oder Unterlassung einer Person.
Offenlegungspflicht (Artikel 3)
Produkhaftungsrichtlinie neu
Überblick
Awendungsbereich und neuer Produktbegriff
Für KI relevante spezifische Regelungen
Synergien
Der ursprüngliche Vorschlag zur AILD und die neue Produkthaftungsrichtlinie zielen prinzipiell auf verschiedene Anwendungsfälle bzw Haftungsszenarien ab, ergänzen sich dabei jedoch dementsprechend.[17] Zudem waren diese Vorschläge als Paket mit jenem für den AI Act zu sehen.[18]
Insbesondere durch die Heranziehung der Begrifflichkeiten aus dem AI Act(-Vorschlag), aber auch durch die Heranziehung entsprechender Sorgfaltspflichten als Voraussetzung für die Kausalitätsvermutung (Artikel 4 AILD) würden sich bei der AILD gegebenenfalls auch entsprechende Synergien mit dem AI Act ergeben.
Umgekehrt können aus der Interpretation gewisser Pflichten nach dem AI Act(-Vorschlag) durch den Vorschlag für die AILD auch gewisse Ansatzpunkte für die Auslegung des AI Acts gewonnen werden. Denn nach dem AILD-Vorschlag sollten, um die Kausalitätsvermutung gemäß Artikel 4 auszulösen (neben anderen Voraussetzungen), nur Verstöße gegen solche Sorgfaltspflichten einschlägig sein, „deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern“.[19] Zumindest in Hinblick auf Anbieter von Hochrisiko-KI-Systemen sollten in dem Zusammenhang wiederum nur bestimmte, taxativ aufgezählte Pflichten nach dem AI Act einschlägig sein.[20] In diesem Zusammenhang nennt Erwägungsgrund 22 auch explizit Erfordernisse, die nicht auf einen entsprechenden Schutz vor Schäden abzielen sollen (was wohl auch den AI Act betrifft), indem dieser festhält: „Verstöße gegen Sorgfaltspflichten, deren unmittelbarer Zweck nicht darin besteht, den eingetretenen Schaden zu verhindern, führen nicht zur Geltung der Vermutung; wenn beispielsweise ein Anbieter die erforderlichen Unterlagen nicht bei den zuständigen Behörden einreicht, würde dies bei Schadensersatzansprüchen aufgrund von Personenschäden nicht zur Geltung der Vermutung führen“. Demnach scheint die EU-Kommission im AILD-Vorschlag (zumindest in manchen Bereichen) nur manche AI Act-(Vorschlag)-Pflichten als „Sorgfaltspflicht, deren unmittelbarer Zweck darin besteht, den eingetretenen Schaden zu verhindern“ zu interpretieren. Das könnte wiederum Auswirkungen auf die Auslegung von AI Act-Regelungen als Schutzgesetze im Sinne des § 1311 ABGB, und damit dem Schadenersatz bei Verletzung des AI Acts, haben.
Nach dem Vorschlag soll die AILD außerdem quasi bestehende zivilrechtliche Haftungsregime bzw entsprechende nationale und unionrechtliche Regelungen ergänzen.[21] Die AILD wäre demnach gegebenenfalls gemeinsam mit diesen zu sehen.
Im Rahmen der neuen Produkthaftungsrichtlinie wurde explizit auf den AI Act Bezug genommen, indem in den Erwägungsgründen festgehalten wurde, dass "Entwickler oder Hersteller von Software, einschließlich der Anbieter von KI-Systemen im Sinne [...]" des AI Acts als Hersteller erachtet werden sollten. Darüber hinaus ist davon auszugehen, dass auch die Bezugnahmen auf KI-Systeme in den Erwägungsgründen vermutlich (insbesondere) im Sinne des AI Acts zu verstehen sind (siehe auch unter Anwendungsbereich und neuer Produktbegriff).
Zudem kann es sich beim AI Act wohl auch um Produktsicherheitsanforderungen im Sinne des Artikel 7 Absatz 2 Buchstabe f bzw Artikel 10 Absatz 2 Buchstabe b PHRL neu handeln, die wiederum für die Beurteilung der Fehlerhaftigkeit eines KI-Systems relevant wären (vgl auch [LINK ZU BESPRECHUNG DES BSP BEI AI ACT]).
Fallbeispiele
Beispiel 1: KI-gestütztes Kreditscoring
Sachverhalt | Ein KI-System, das bestimmungsgemäß für Kreditscoring eingesetzt wird, führt zur Verweigerung eines Kredits bzw günstigerer Kreditkonditionen für eine Interessentin.
Durch die Trainingsdaten des Systems wurde suggeriert, dass Frauen aufgrund eines niedrigeren Durchschnittseinkommens weniger kreditwürdig wären. |
---|---|
Einordnung KI-Verordnung | Es liegt ein Hochrisiko-KI-System gemäß Artikel 6 Absatz 2 in Verbindung mit Anhang III Ziffer 5 Buchstabe b vor (siehe im Detail [LINK ZU BESPRECHUNG DES BSP BEI AI ACT]). |
Einordnung AI Liability Directive | In Hinblick auf die diskriminierende Trainingsdatenbasis wäre gegebenenfalls insbesondere in Hinblick auf den Anbieter des Systems die Kausalitätsvermutung gemäß Artikel 4 AILD relevant.
Durch eine entsprechende Verletzung von Artikel 10 ABS... AI Act (siehe im Detail [LINK ZU BESPRECHUNG DES BSP BEI AI ACT]) könnte Artikel 4 Absatz 2 Buchstabe a AILD erfüllt werden, indem eine der taxativ aufgezählten Pflichten von Hochrisiko-KI-Anbietern betroffen wäre. Damit wäre bei einem entsprechenden Schadenersatzanspruch gegen den Anbieter unter der Vorausetzung, dass der Kläger ein entsprechendes Verschulden des Anbieters nachweist, sowie, dass das Ergebnis des Kredit-Scorings zu seinem Schaden geführt hat, die Kausalitätsvermutung anwendbar, sofern weiters auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden kann, dass das Verschulden das Ergebnis des Kredit-Scorings beeinflusst hat. Jedenfalls nach dem Sachverhalt kann von einer solchen Beeinflussung ausgegangen werden. Aufgrund der Einordnung als Hochrisiko-KI-System gemäß AI Act wäre gegebenenfalls auch die Offenlegungspflicht gemäß Artikel 3 AILD anwendbar. Demnach müssten gegebenenfalls einschlägige Beweismittel, die dem Anbieter des Kredit-Scoring-Systems vorliegen, offengelegt werden, was insbesondere in Bezug auf die Dokumentation, Information und Protokollierung gemäß AI Act hinsichtlich der Trainingsdatenbasis relevant sein wird (vgl insbesondere Erwägungsgründe 16, 18 und 19; [LINK AUF ENTSPRECHENDE AUSFÜHRUGNEN ZU AI ACT PFLICHTEN]). |
Einordnung Produkthaftungs-RL | Die Produkthaftungsrichtlinie ist bei reinen Vermögensschäden nicht anwendbar (Artikel 6 e contrario; Erwägungsgründe 23 und 24 PHRL neu). |
Beispiel 2: KI-Chatbot-Assistent für Bankkund*innen
Sachverhalt | Ein KI-Chatbotassistenz wird von einer Bank im Überweisungsprozess eingesetzt, um Kund*innen die Dateneingabe zu erleichtern.
Bei einem Kunden kommt es in der Folge (ohne sein Verschulden) dadurch zu einer fehlerhaften Überweisung, wobei der zehnfache Betrag überwiesen wird, weil das KI-System bei der Überweisungssumme eine Kommastelle falsch übernommen hat. |
---|---|
Einordnung KI-Verordnung | Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Artikel 5 AI Act, noch ein Hochrisiko-KI-System gemäß Artikel 6 AI Act vorliegen. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act einschlägig sein (siehe im Detail [LINK ZU BESPRECHUNG DES BSP BEI AI ACT]). |
Einordnung AI Liability Directive | Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die Kausalitätsvermutung nach der AILD relevant. Hierbei wäre aber wohl vor allem zu überlegen, inwieweit in Hinblick auf den fehlerhaften Assistenz-Chatbot ein Verschulden der Bank bzw des KI-Anbieters oder einer Person vorliegt, für deren Verhalten diese jeweils verantwortlich wären. Dieses müsste in der Folge nachgewiesen werden, wie auch die Kausalität der Übernahme der falschen Überweisungssumme für den geltend gemachten Schaden (Artikel 4 Absatz 1 Buchstabe a und c). Der Schaden könnte im Beispiel zumindest etwa in den Kosten dafür bestehen, die fehlerhafte Überweisung rückgängig zu machen. Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass das Verschulden den beschriebenen Fehler des Chatbots beeinflusst hat.
Da kein Hochrisiko-KI-System vorliegt, wäre die Offenlegungspflicht gemäß Artikel 3 AILD allerdings nicht anwendbar. Somit könnten auf dieser Basis auch nicht die Vorlage entsprechender Beweismittel geltend gemacht werden, was die beschriebenen Nachweise wohl erschweren würde. |
Einordnung Produkthaftungs-RL | Die Produkthaftungsrichtlinie ist bei reinen Vermögensschäden nicht anwendbar (Artikel 6 e contrario; Erwägungsgründe 23 und 24 PHRL neu). |
Beispiel 3: KI-Assistenzsystem auf Betriebssystemebene für private Computer
Sachverhalt | Ein KI-Assistenzsystem, das standardmäßig auf Betriebssysstemebene bei einer bestimmten Marke privater Computer impementiert ist, wird durch eine Nutzerin des Computers aufgefordert, eine bestimmte Dateien (Scans von wichtigen, privaten Dokumenten) zu suchen.
Aufgrund einer Cybersicherheits-Schwachstelle ist es einem Angreifer allerdings zuvor gelungen, in das System einzudringen, sodass das Assistenzsystem die Dateien an den Angreifer schickt und anschließend auf dem Computer der Nutzerin löscht. |
---|---|
Einordnung KI-Verordnung | Auch wenn grundsätzlich ein KI-System im Sinne des AI Act vorliegt, würde hierbei grundsätzlich weder eine prinzipiell verbotene Praxis gemäß Artikel 5 AI Act, noch ein Hochrisiko-KI-System gemäß Artikel 6 AI Act vorliegen. Es könnte allerdings, insbesondere je nach den Umständen des Kontextes, die Informationspflicht des Anbieters gemäß Artikel 50 Absatz 1 AI Act einschlägig sein (siehe im Detail [LINK ZU BESPRECHUNG DES BSP BEI AI ACT]). |
Einordnung AI Liability Directive | Nachdem ein KI-System im Sinne des AI Act vorliegt, wäre grundsätzlich auch die Kausalitätsvermutung nach der AILD relevant. Wie in Beispiel 2 wäre allerdings der Nachweis eines Verschuldens (wohl insbesondere des Anbieters und von Personen, für deren Verhalten dieser verantwortlich ist) und der Kausalität der Aktionen des Assistenzsystems für den Schaden fraglich. Zudem müsste wiederum auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden können, dass ein etwaiges Verschulden die beschriebene Aktion des Assistenzsystems beeinflusst hat.
Die geforderten Nachweise sind wiederum auch deswegen fraglich, weil diesfalls die Offenlegungspflicht gemäß Artikel 3 AILD nicht anwendbar wäre, weil grundsätzlich kein Hochrisiko-KI-System vorliegt. |
Einordnung Produkthaftungs-RL | Die Produkthaftungsrichtlinie ist zwar bei reinen Vermögensschäden nicht anwendbar (Artikel 6 e contrario; Erwägungsgründe 23 und 24 PHRL neu), allerdings sehr wohl auf Vermögensschäden, die sich aus der Vernichtung oder Beschädigung von Daten ergeben, welche nicht für berufliche Zwecke verwendet werden (Artikel 6 Absatz 2 in Verbindung mit Absatz 1 Buchstabe c PHRL neu). Dies würde nach dem Sachverhalt grundsätzlich zutreffen, jedenfalls sofern sich aus der Löschung der Dokumente ein finanzieller Schaden ergibt. Dieser wäre dann prinzipiell ersatzfähig.
Weiters wären aber auch entsprechende immaterielle Schäden erfasst, soweit diese nach dem nationalen Recht ersatzfähig sind, was sich nach Erwägungsgrund 23 PHRL neu insbesondere auf Schmerzen und Leid beziehen soll. Diesbezüglich ist demnach auch noch die konkrete nationale Umsetzung abzuwarten. Da es sich bei dem Assistenzsystem um eine Software und damit ein Produkt im Sinne des Artikel 4 Ziffer 1 PHRL neu handelt, wäre weiters zu überlegen, inwieweit eine Fehlerhaftigkeit des Assistenzsystems die jeweiligen Schäden verursacht hat. Bei der Beurteilung der Fehlerhaftigkeit sind gemäß Artikel 7 Absatz 2 PHRL neu grundsätzlich alle Umstände einzubeziehen, was insbesondere auch einschlägige Produktsicherheitsanforderungen, einschließlich sicherheitsrelevanter Cybersicherheitsanforderungen, betrifft (Buchstabe f). Sofern der Kläger den Nachweis erbringen würde, dass das System verbindliche Produktsicherheitsanforderungen verletzt, die vor dem Risiko des erlittenen Schadens schützen sollen, wäre die Fehlerhaftigkeit gemäß Artikel 10 Absatz 2 Buchstabe b sogar zu vermuten. Da die Cybersicherheitsanforderungen des gemäß Artikel 15 AI Act nur auf Hochrisiko-KI-Systeme anwendbar sind, müsste die Fehlerhaftigkeit diesfalls anhand anderer Parameter festgestellt werden. Da bei dem Assistenzsystem prinzipiell ein Produkt vorliegt, könnte gegebenenfalls insbesondere der Hersteller für deren Fehlerhaftigkeit haftbar gemacht werden (Artikel 8 Absatz 1 Buchstabe a PHRL neu; vgl auch Erwägungsgrund 36 PHRL neu). Dies kann nach Erwägungsgrund 13 PHRL neu insbesondere der Anbieter eines KI-Systems sein. Zudem könnte unter Umständen auch der Hersteller des Betriebssystems haftbar gemacht werden, soweit es sich nicht ohnehin um den selben Hersteller handelt und sofern das Assistenzsystems als Komponente unter der Kontrolle des Herstellers in das Betriebssystem integriert wurde und damit dessen Fehlerhaftigkeit verursacht hat. Nach dem Sachverhalt wäre das grundsätzlich gegeben, insbesondere da es sich bei dem Assistenzsystem auch um eine Komponente gemäß Artikel 4 Ziffer 4, im Sinne eines nicht-körperlichen Gegenstands handelt, der in das Betriebssystem als Produkt integriert ist (vgl Erwägungsgründe 13 und 36 PHRL neu). Weiters könnte aber unter sinngemäßen Umständen auch der Hersteller des Computers haftbar gemacht werden, weil das Betriebssystem schließlich auch eine Komponente des Computers darstellt. Je nach den Umständen des Falles kommen auch noch andere Wirtschaftsakteure für eine Haftung in Frage. Mehrere haftbare Wirtschaftsakteure sollen nach Artikel 12 Absatz 1 PHRL neu prinzipiell solidarisch haften (vgl allerdings Absatz 2 zum möglichen Ausschluss des Regresses). Die Tatsache, dass (auch) die Handlung eines Angreifers zu entspechenden Schäden geführt hat, darf die Haftung der jeweiligen Wirtschaftsakteure jedenfalls auch nicht mindern oder ausschließen (vgl Artikel 13 Absatz 1, Erwägungsgsrund 55 PHRL neu). |
Beispiel 4: KI-System zur Hautkrebserkennung, Diagnoseerstellung und Therapieempfehlung
Sachverhalt | |
---|---|
Einordnung KI-Verordnung | |
Einordnung AI Liability Directive | |
Einordnung Produkthaftungs-RL |
Weiterführende Literatur
Weiterführende Links
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2, 3 und 13; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seiten 1 und folgende.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 14; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 3, 12 und 13.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 1, 2, Erwägungsgründe 22 und 28, Artikel 3(5).
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 5 und folgende.
- ↑ Vgl etwa Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seite 1; European Parliamentary Research Service, Artificial intelligence liability directive, PE 739.342, February 2023; für Österreich etwa: Larcher, Medizinprodukte-Software: Abgrenzung und Produkthaftung, rdm 2018/100, 130 (Seiten 133, 134); für Deutschland etwa: Dötsch, Außervertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen (2023), insbesondere Seiten 276 und folgende; Joggerst/Wendt, Die Weiterentwicklung der Produkthaftungsrichtlinie, InTeR 2021, 13.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, insbesondere Seite 6.
- ↑ Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 23. Oktober 2024 über die Haftung für fehlerhafte Produkte und zur Aufhebung der Richtlinie 85/374/EWG des Rates, ABl L 18. 11. 2024.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final.
- ↑ Vgl Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024); Tom Whittaker, EU AI Liability Directive: An Update, in: Burges Salmon blog, https://blog.burges-salmon.com/post/102jfdv/eu-ai-liability-directive-an-update(abgerufen am 26. 11. 2024).
- ↑ European Parliamentary Research Service, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence – Complementary impact assessment (2024); siehe auch Legislative Train 10. 2024 - 2 A Europe Fit For The Digital Age - AI Liability Directive - Q4 2020, https://www.europarl.europa.eu/legislative-train/theme-legal-affairs-juri/file-ai-liability-directive (abgerufen am 26. 11. 2024).
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere die Erläuterungen in der Begründung.
- ↑ Vgl insbesondere Erwägungsgründe 26 bis 28.
- ↑ Im Allgemeinen ist anzumerken, dass bei den Begrifflichkeiten der AILD wie auch der neuen Produkthaftungsrichtlinie im Normtext keine gendergerechte Sprache verwendet wird. Daher kann, soweit auf diese Begrifflichkeiten Bezug genommen wird, auch hier keine gendergerechte Sprache verwendet werden. Abgesehen davon wird dies jedenfalls entsprechend berücksichtigt.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13; Artikel 1.
- ↑ Siehe insbesondere Artikel 1(3)(d), Erwägungsgründe 10 und 22; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13.
- ↑ Vgl Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final, Seite 5; Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 3.
- ↑ Vgl darüber hinaus Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seiten 2 und 3.
- ↑ Vgl Erwägungsgrund 22 und Artikel 4(1)(a).
- ↑ Vgl Erwägungsgrund 26 und Artikel 4(2).
- ↑ Siehe Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), COM(2022) 496 final, insbesondere Seite 13; siehe zudem unter Überblick und Anwendungsbereich.