Artificial Intelligence Act (AIA)

Aus RI Wiki
Zur Navigation springenZur Suche springen

https://artificialintelligenceact.eu/de/das-gesetz/

Einführung

Es handelt sich beim Artifificial Intelligence Act, auf Deutsch Verordnung über Künstliche Intelligenz (im Folgenden KI-VO), um den europäischen Versuch, eine sektorunabhängige Regulierung von Künstlicher Intelligenz voranzutreiben. Die KI-VO, die im April 2021 von der Kommission vorgeschlagen und nach dem Gesetzgebungsprozess am 12. Juni 2024 im Amtsblatt kundgemacht wurde, steht dabei primär in der Tradition des Produktsicherheitsrechtes und des sogenannten New Legislative Frameworks (NLF).

Sie verfolgt die duale Zielsetzung, einerseits die Risiken von KI zu minimieren und andererseits Innovation (durch KI) zu fördern. Die KI-VO verfolgt dabei einen risikobasierten Ansatz, der dafür sorgen sollte, dass höhere Risiken mit einer höheren Regulierungsdichte korrespondieren, während KI-Systeme mit geringem Risiko nicht "überreguliert" werden.

Vor allem durch Entwicklungen im Bereich der Large language models (LLMs) wie ChatGPT kam es ab 2022 zu einer starken Debatte um die Regulierung von Modellen, die hinter diesen Systemen stehen (sogenannte foundational models bzw general-purpose AI models). Als Folge der Diskussion wurde der KI-VO ein eigener Abschnitt, der sich mit solchen general-purpose AI (GPAI) Modellen beschäftigt, hinzugefügt.

Anwendungsbereich

Ausnahmen

Inhaltliche Aspekte

Verbotene Praktiken

Hochrisiko-KI-Systeme

Die KI-VO definiert Hochrisiko-KI-Systeme in Art 6. Dabei kennt sie zwei Varianten dieser Systeme, die in der Literatur - nicht aber in der KI-VO selbst - als "eingebettete" und "eigenständige Hochrisiko-KI-Systeme" bezeichnet werden. Darüber hinaus enthält Art 6 Abs 3 KI-VO Ausnahmen von der Einstufung als Hochrisiko-KI-System.

"Eingebettete Hochrisiko-KI-Systeme

Nach Art 6 Abs 1 KI-VO gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei Bedingungen erfüllt sind:

  • das KI-System soll als Sicherheitsbauteil eines Produkts verwendet werden oder das KI-System ist selbst ein solches Produkt fällt unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union
  • das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden

Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).

Use Case

Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: Software kann ein Medizinprodukte im Sinne der Medizinprodukteverordnung (MPVO) darstellen. Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko, unterliegen einer Konformitätsbewertung unter Einbeziehung einer "benannten Stelle", das heißt einer externen Konformitätsbewertungsstelle. Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I genannt wird, und anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt "Dritter".

"Eigenständige Hochrisiko-KI-Systeme

Ausnahmen

Pflichten für Anbieter

Pflichten für Betreiber

Transparenzpflichten

GPAI-Modelle

Strafen/sonstige Konsequenzen

Verhältnis und Synergien zu anderen Rechtsakten

Fassungen der KI-VO

Weiterführende Literatur

Weiterführende Links