Artificial Intelligence Act (AIA)

Aus RI Wiki
Zur Navigation springenZur Suche springen

https://artificialintelligenceact.eu/de/das-gesetz/

Einführung

Es handelt sich beim Artifificial Intelligence Act, auf Deutsch Verordnung über Künstliche Intelligenz (im Folgenden KI-VO), um den europäischen Versuch, eine sektorunabhängige Regulierung von Künstlicher Intelligenz voranzutreiben. Die KI-VO, die im April 2021 von der Kommission vorgeschlagen und nach dem Gesetzgebungsprozess am 12. Juni 2024 im Amtsblatt kundgemacht wurde, steht dabei primär in der Tradition des Produktsicherheitsrechtes und des sogenannten New Legislative Frameworks (NLF).

Sie verfolgt die duale Zielsetzung, einerseits die Risiken von KI zu minimieren und andererseits Innovation (durch KI) zu fördern. Die KI-VO verfolgt dabei einen risikobasierten Ansatz, der dafür sorgen sollte, dass höhere Risiken mit einer höheren Regulierungsdichte korrespondieren, während KI-Systeme mit geringem Risiko nicht "überreguliert" werden.

Vor allem durch Entwicklungen im Bereich der Large language models (LLMs) wie ChatGPT kam es ab 2022 zu einer starken Debatte um die Regulierung von Modellen, die hinter diesen Systemen stehen (sogenannte foundational models bzw general-purpose AI models). Als Folge der Diskussion wurde der KI-VO ein eigener Abschnitt, der sich mit solchen general-purpose AI (GPAI) Modellen beschäftigt, hinzugefügt.

Anwendungsbereich

Ausnahmen

Inhaltliche Aspekte

Verbotene Praktiken

Hochrisiko-KI-Systeme

Die KI-VO definiert Hochrisiko-KI-Systeme in Art 6. Dabei kennt sie zwei Varianten dieser Systeme, die in der Literatur - nicht aber in der KI-VO selbst - als "eingebettete" und "eigenständige Hochrisiko-KI-Systeme" bezeichnet werden. Darüber hinaus enthält Art 6 Abs 3 KI-VO Ausnahmen von der Einstufung als Hochrisiko-KI-System.

"Eingebettete" Hochrisiko-KI-Systeme

Nach Art 6 Abs 1 KI-VO gilt zunächst ein KI-System als Hochrisiko-KI-System, wenn die zwei Bedingungen erfüllt sind:

  • das KI-System soll als Sicherheitsbauteil eines Produkts verwendet werden oder das KI-System ist selbst ein solches Produkt fällt unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union
  • das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt muss im Rahmen dieser Harmonisierungsrechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden

Anhang I, Abschnitt A nennt dabei zwölf solche Harmonisierungsrechtsvorschriften (bezogen auf Maschinen, Spielzeug, Sportboote und Wassermotorräder, Aufzüge, Geräte und Schutzsysteme in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Seilbahnen, persönliche Schutzausrüstungen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte, In-vitro-Diagnostika).

Use Case

Um diese Einstufung als Hochrisiko-KI-System durch ein Beispiel zu illustrieren: Software kann ein Medizinprodukte im Sinne der Medizinprodukteverordnung (MPVO) darstellen. Medizinprodukte ab Risikoklasse IIa, das heißt mittlerem Risiko, unterliegen einer Konformitätsbewertung unter Einbeziehung einer "benannten Stelle", das heißt einer externen Konformitätsbewertungsstelle. Software als Medizinprodukt erfüllt damit - sofern sie unter die KI-Definition subsumiert werden kann - häufig beide Bedingungen: einerseits kann sie ein Produkt bzw Sicherheitskomponente eines Produktes darstellen, das unter die MPVO fällt, die in Anhang I genannt wird, und anderseits unterliegt sie im Rahmen der MPVO in fast allen Fällen einer Konformitätsbewertung unter Einbeziehung einer Konformitätsbewertungsstelle, das heißt "Dritter".

"Eigenständige" Hochrisiko-KI-Systeme

Die zweite Variante von "eigenständigen" Hochrisiko-KI-Systemen wird durch Art 6 Abs 2 KI-VO definiert, der dabei auf Anhang III verwiest. Dieser enthält acht Bereiche, untergliedert in konkretere Anwendungsfelder, die ebenfalls als hochriskant gelten.

Die acht Anwendungsbereiche sind dabei


  1. Migration, Asyl und Grenzkontrolle
    1. KI-Systeme, die als Lügendetektoren verwendet werden sollen (bzw ähnliche Instrumente)
    2. KI-Systeme, die zur Bewertung eines Risikos verwendet werden sollen, einschließlich eines Sicherheitsrisikos, eines Risikos der irregulären Einwanderung oder eines Gesundheitsrisikos, das von einer natürlichen Person ausgeht, die in das Hoheitsgebiet eines Mitgliedstaats einzureisen beabsichtigt oder eingereist ist;
    3. KI-Systeme, die verwendet werden sollen, um zuständige Behörden bei der Prüfung von Asyl- und Visumanträgen sowie Aufenthaltstiteln und damit verbundenen Beschwerden im Hinblick auf die Feststellung der Berechtigung der den Antrag stellenden natürlichen Personen, einschließlich damit zusammenhängender Bewertungen der Verlässlichkeit von Beweismitteln, zu unterstützen;
    4. KI-Systeme, die im Zusammenhang mit Migration, Asyl oder Grenzkontrolle zum Zwecke der Aufdeckung, Anerkennung oder Identifizierung natürlicher Personen verwendet werden sollen, mit Ausnahme der Überprüfung von Reisedokumenten.
  2. Rechtspflege und demokratische Prozesse
    1. KI-Systeme, die verwendet werden, um eine Justizbehörde - nicht aber eine Verwaltungsbehörde - bei der Ermittlung und Auslegung von Sachverhalten und Rechtsvorschriften und bei der Anwendung des Rechts auf konkrete Sachverhalte zu unterstützen; Systeme die auf ähnliche Weise für die alternative Streitbeilegung genutzt werden sollen, werden ebenfalls erfasst.
    2. KI-Systeme, die verwendet werden sollen, um das Ergebnis einer Wahl oder eines Referendums oder das Wahlverhalten natürlicher Personen bei der Ausübung ihres Wahlrechts bei einer Wahl oder einem Referendum zu beeinflussen.

Ausnahmen

Pflichten für Anbieter

Pflichten für Betreiber

Transparenzpflichten

GPAI-Modelle

Strafen/sonstige Konsequenzen

Verhältnis und Synergien zu anderen Rechtsakten

Fassungen der KI-VO

Weiterführende Literatur

Weiterführende Links